Expertos piden que se frene el entrenamiento de la IA

El CEO de SpaceX, Tesla y Twitter, Elon Musk, junto con el cofundador de Apple, Steve Wozniak, han firmado una carta en la que hacen un llamado a todos los laboratorios de inteligencia artificial (IA) a «pausar inmediatamente» el entrenamiento de los sistemas de IA más potentes que el GPT-4 durante al menos 6 meses.

«Los sistemas de IA con inteligencia humana-competitiva pueden suponer graves riesgos para la sociedad y la humanidad, como lo demuestra una extensa investigación y reconocido por los principales laboratorios de IA», se lee en la misiva firmada por más de mil ejecutivos y expertos en IA.

El documento, publicado el pasado miércoles por Future of Life Institute, una organización sin ánimo de lucro, denuncia que la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra. En ese contexto, se insta a «planificar y administrar con el cuidado y los recursos correspondientes», dado que aseguran que tal nivel de gestión no está ocurriendo.

«Carrera fuera de control»

A pesar de que en los últimos meses los laboratorios de IA han entrado en «una carrera fuera de control» para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable, se detalla.

El pasado 16 de marzo, el director ejecutivo de OpenAI, Sam Altman, admitió que estaba «un poco asustado» por haber creado el ChatGPT y agregó que se encontraba «particularmente preocupado por que estos modelos puedan usarse para la desinformación a gran escala», en referencia al GPT-4, la nueva versión de ChatGPT que «exhibe un rendimiento a nivel humano en varios puntos de referencia académicos y profesionales».

En la misma jornada, el buscador chino Baidu, reveló su alternativa china al ChatGPT, el chatbot de inteligencia artificial ‘Ernie bot’, cuyas tareas incluyen comprensión y generación de lenguaje, conversión de texto a imagen, composición de poesía y producción de audio en dialectos chinos. Además es capaz de crear itinerarios de viaje y realizar transmisiones en vivo para anunciar productos.

«No nos apresuremos a caer sin estar preparados»

«¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad?», instan a cuestionar en la carta. «¿Deberíamos desarrollar mentes no humanas que eventualmente puedan superarnos en número, ser más inteligentes, hacernos obsoletos y reemplazarnos?, ¿deberíamos arriesgarnos a perder el control de nuestra civilización?», continúan.

En ese sentido, exhortan a que se desarrollen los sistemas de IA cuando exista seguridad de que sus efectos serán positivos y sus riesgos manejables. Asimismo, manifiestan que los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar e implementar conjuntamente protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes.

En ese marco, instan a los desarrolladores de IA a trabajar con los legisladores para «acelerar drásticamente el desarrollo de sistemas de gobierno robusto» en el área de la IA, que deberían de incluir autoridades reguladoras nuevas y capaces dedicadas a la IA.

Se explica además que la sociedad anteriormente ya había hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la humanindad, tales como la clonación humana y otras áreas de la genética. «Podemos hacerla aquí», demandan. «No nos apresuremos a caer sin estar preparados», concluyen.

T/Rt
F/Archivo