¿Hacia el desarrollo de una “IA segura”? Dieciséis de las principales empresas de inteligencia artificial (IA) del mundo, cuyos representantes se reúnen este martes 21 de mayo en Seúl, han asumido nuevos compromisos para garantizar el desarrollo seguro de esta ciencia, anunció el Gobierno británico. «Estos compromisos garantizan que las principales empresas de IA del mundo serán transparentes y responsables de sus planes para desarrollar una IA segura», dijo el primer ministro británico, Rishi Sunak, en un comunicado publicado por el Instituto Británico de Ciencia, Innovación y Tecnología.
El acuerdo, firmado en particular por OpenAI (ChatGPT), Google DeepMind y Anthropic, se basa en el consenso alcanzado durante la primera “cumbre” global sobre seguridad de la IA, el año pasado en Bletchley Park, Reino Unido. Esta segunda “cumbre” en Seúl está organizada conjuntamente por los gobiernos surcoreano y británico. Las empresas de IA que aún no han hecho público cómo evalúan la seguridad de las tecnologías que desarrollan se comprometen a hacerlo.
Lea también: Brad Smith: “Microsoft invertirá 4 mil millones de euros en Francia al servicio de la inteligencia artificial y del crecimiento económico del país”
Esto incluye determinar qué riesgos se “consideran intolerables” y qué harán las empresas para garantizar que estos umbrales no se crucen, explica el comunicado de prensa. En las circunstancias más extremas, las empresas también acuerdan “no desarrollar ni implementar un modelo o sistema” si las medidas de mitigación no logran mantener los riesgos por debajo de los umbrales establecidos. Estos umbrales se definirán antes de la próxima “cumbre” sobre IA, en 2025 en Francia.
Entre las empresas que aceptan estas normas de seguridad se encuentran también los gigantes tecnológicos estadounidenses Microsoft, Amazon, IBM y Meta, la francesa Mistral AI y la china Zhipu.ai.
El gran éxito de ChatGPT poco después de su lanzamiento en 2022 provocó una avalancha en el campo de la IA generativa, con empresas de tecnología de todo el mundo invirtiendo miles de millones de dólares en el desarrollo de sus propios modelos. Los modelos de IA generativa pueden producir texto, fotografías, audio e incluso vídeos a partir de indicaciones sencillas. Sus partidarios los presentan como un avance que mejorará las vidas de ciudadanos y empresas de todo el mundo.
Pero los defensores de los derechos humanos y los gobiernos también temen su uso indebido en una amplia gama de situaciones, incluso para manipular a los votantes mediante noticias falsas o fotografías y vídeos “deepfake” de líderes políticos. Muchos exigen que se establezcan estándares internacionales para regir el desarrollo y uso de la IA.
Además de la seguridad, la «cumbre» de Seúl analizará cómo los gobiernos pueden ayudar a impulsar la innovación (incluida la investigación de IA en las universidades) y cómo la tecnología podría ayudar a resolver problemas como el cambio climático y la pobreza. La reunión de dos días de duración en Seúl se llevará a cabo parcialmente de forma virtual, con algunas sesiones a puerta cerrada mientras que otras están abiertas al público en la capital de Corea del Sur.