(Nueva York) Las empresas más avanzadas en el campo de la inteligencia artificial (IA) deben aceptar que sus empleados analicen públicamente sus actividades y los riesgos relacionados con la IA, exigieron bajo anonimato varios empleados de OpenAI, así como antiguos miembros. de la puesta en marcha.
«En la medida en que estas empresas no están sujetas a la supervisión de las autoridades, los empleados actuales o anteriores se encuentran entre las pocas personas que pueden exigirles responsabilidades», explican los 13 firmantes de la carta abierta, publicada el martes.
Entre ellos se encuentran cuatro empleados de OpenAI y siete ex alumnos.
Estos firmantes lamentan que “las cláusulas de confidencialidad exhaustivas les impidan expresar (sus) preocupaciones” públicamente.
“Algunos de nosotros tememos represalias (en caso de que nos comuniquemos abiertamente), dados los precedentes que existen en la industria”, según la carta.
Entre los riesgos citados, “el refuerzo de las desigualdades, la manipulación, la desinformación, llegando incluso a la pérdida de control de los sistemas autónomos de IA, lo que podría conducir a la extinción de la humanidad”.
Si creen que estos riesgos pueden limitarse “con la ayuda de la comunidad científica, las autoridades y el público”, “las empresas de IA tienen un incentivo financiero para escapar de una supervisión eficaz”.
También fomentan la creación de canales de denuncia anónimos a nivel interno para advertir de determinados riesgos.
Consultada por la AFP, Open AI se declaró «orgullosa» de disponer de los que considera los sistemas de inteligencia artificial «más potentes y seguros».
«Compartimos la idea de que un debate riguroso es crucial dado el alcance de esta tecnología y continuaremos intercambiando con gobiernos, la sociedad civil y otras entidades de todo el mundo», añadió un portavoz de ‘OpenAI.















