16 gigantes tecnológicos mundiales de IA acuerdan estándares de seguridad comunes. Un acuerdo sin precedentes a nivel mundial tiene como objetivo minimizar los riesgos de la inteligencia artificial.
Como parte de la Cumbre AI de Seúl, 16 de las principales empresas de tecnología de IA del mundo acordaron un concepto de seguridad común. Así lo informa el «Independiente».
Entre los firmantes se encuentran gigantes como Amazon, Google, Microsoft, Meta y Open AI, que se han comprometido con los llamados Compromisos de seguridad de Frontier AI.
Según el primer ministro británico, Rishi Sunak, este acuerdo sienta un “precedente para los estándares globales sobre seguridad de la IA”. Por ello, las empresas implicadas tienen previsto publicar condiciones marco individuales.
Su objetivo es proporcionar información sobre cómo evalúan los riesgos de sus modelos de IA de última generación. Se presta especial atención al riesgo de uso indebido de la tecnología por parte de actores maliciosos.
Como informa The Independent, el marco también establece las circunstancias bajo las cuales los riesgos graves se consideran “insoportables” si no pueden mitigarse adecuadamente.
Si los riesgos superan ciertos umbrales, las empresas se han comprometido a tomar medidas drásticas, como no desarrollar ni utilizar dichos modelos o sistemas en absoluto.
Se cita al Primer Ministro Sunak diciendo: “Es una novedad mundial que tantas empresas líderes en IA acuerden los mismos compromisos con la seguridad de la IA”. Esto establecerá un estándar internacional que puede desbloquear los beneficios de esta tecnología transformadora.
La ministra británica de Ciencia, Tecnología e Innovación, Michelle Donelan, presente en Seúl, subrayó, según The Independent, que todo el potencial de la IA sólo puede realizarse si se gestionan los riesgos. El acuerdo al que se ha llegado ahora hace que este objetivo sea más tangible.