El especialista en inteligencia artificial (IA) Gary Marcus ha pasado los últimos meses alertando a sus pares, funcionarios electos y al público sobre los riesgos del desarrollo y la rápida adopción de nuevas herramientas de IA. Pero el peligro de extinción humana es «exagerado», dijo en una entrevista en San Francisco. “Personalmente, y de momento, no me preocupa mucho esto, porque los escenarios no son muy concretos”, explica este profesor emérito de la Universidad de Nueva York, que vino a California para dar una conferencia. «Lo que me preocupa es que estamos construyendo sistemas de inteligencia artificial que no controlamos bien», continúa.
Gary Marcus diseñó su primer programa de IA en la escuela secundaria -un software para traducir del latín al inglés- y después de años de estudiar psicología infantil, fundó Geometric Intelligence, una empresa de «aprendizaje automático» (máquinas) luego adquirida por Uber. En marzo, firmó conjuntamente la carta de cientos de expertos que pedían un descanso de seis meses del desarrollo de sistemas de IA ultrapotentes como los de la start-up OpenAI, el tiempo para asegurarse de que los programas ya existentes son «confiables». , segura, transparente, leal (…) y alineada» con los valores humanos. Pero no firmó la sucinta declaración de líderes empresariales y expertos que causó revuelo esta semana.
Sam Altman, el jefe de OpenAI, Geoffrey Hinton, un destacado ex ingeniero de Google, Demis Hassabis, el líder de DeepMind (Google) y Kevin Scott, director de tecnología de Microsoft, en particular, llaman allí para luchar contra «los riesgos de extinción” de la humanidad “vinculada a la IA”.
Leer tambiénInteligencia artificial para atacar lo que queda de privacidad
El éxito sin precedentes de ChatGPT, el robot conversacional de OpenAI capaz de producir todo tipo de textos a simple petición en un lenguaje común, ha desatado una carrera por esta llamada inteligencia artificial «generativa» entre los gigantes tecnológicos, pero también muchas advertencias y llamados a regular esta área.
Incluso por parte de quienes construyen estos sistemas informáticos con miras a lograr una IA “general”, con capacidades cognitivas similares a las de los humanos. “Si realmente crees que esto representa un riesgo existencial, ¿por qué estás trabajando en esto? Es una pregunta legítima”, señala Gary Marcus. «La extinción de la especie humana… Es bastante complicado, en realidad», reflexiona. «Puedes imaginar todo tipo de plagas, pero la gente sobreviviría».
Hay, por otro lado, escenarios realistas donde el uso de la IA “puede causar daños masivos”, subraya. “Por ejemplo, la gente podría manipular con éxito los mercados. Y tal vez acusaríamos a los rusos de ser los responsables, y los atacaríamos cuando no tenían nada que ver y podríamos terminar en una guerra accidental, potencialmente nuclear”, explica.
Leer tambiénInteligencia artificial: Cleyrop juega con la confianza para explotar mejor el mercado
A corto plazo, Gary Marcus está más preocupado por la democracia. Porque el software generativo de IA produce fotografías falsas, y pronto videos, cada vez más convincentes, a bajo costo. Por tanto, las elecciones corren el riesgo, según él, de “que las ganen las personas más dotadas para difundir la desinformación. Una vez elegidos podrán cambiar las leyes (…) e imponer el autoritarismo”.
Sobre todo, “la democracia se basa en el acceso a la información necesaria para tomar las decisiones correctas. Si nadie sabe lo que es verdad o no, se acabó. Sin embargo, el autor del libro “Rebooting AI” no cree que todo deba volcarse en esta tecnología. «Existe la posibilidad de que algún día usemos una IA que aún no hemos inventado, que nos ayude a avanzar en la ciencia, en la medicina, en el cuidado de los ancianos (…) Pero por el momento no estamos listo. Necesitamos regulación y que los programas sean más confiables”.
Durante una audiencia ante un comité parlamentario estadounidense en mayo, defendió la creación de una agencia nacional o internacional responsable de la gobernanza de la inteligencia artificial. Un proyecto apoyado también por Sam Altman, que acaba de regresar de una gira europea donde instó a los líderes políticos a encontrar un “equilibrio justo” entre protección e innovación. Pero cuidado con dejar el poder a las empresas, advierte Gary Marcus: «Estos últimos meses nos han recordado cuánto son ellas quienes toman las decisiones importantes, sin tener necesariamente en cuenta (…) los efectos colaterales».