La carta en la que más de 1.000 expertos piden frenar la inteligencia artificial por ser una "amenaza para la humanidad"

01-04-23

Los expertos en IA han firmado una petición para que las empresas con modelos muy avanzados paren durante 6 meses y se pongan de acuerdo en qué protocolos de seguridad deben tener en cuenta. 

OpenAI lanzó recientemente GPT-4 y Elon Musk quiere que el equipo frene el entrenamiento de la próxima actualización.OpenAI lanzó recientemente GPT-4 y Elon Musk quiere que el equipo frene el entrenamiento de la próxima actualización.[@Levart_Photographer] de Unsplash

Elon Musk fundó OpenAI, la empresa desarrolladora de ChatGPT y DALL-E hace ya casi 8 años. Sin embargo, dejó su dirección en 2019 e incluso llegó a reconocer que la Inteligencia Artificial era "bastante peligrosa" y que temía "haber hecho algunas cosas para acelerarla". 

Para intentar paliar lo que construyó en su día, el empresario ha firmado, junto con otros 1.100 expertos en IA, una petición a los grandes desarrolladores de estas herramientas para que frenen su entrenamiento durante medio año. Su intención es que, en ese tiempo, se puedan establecer unas regulaciones que permitan crear esta tecnología de forma más ética.

"Solicitamos a todos los laboratorios de Inteligencia Artificial que suspendan inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4", se lee en la carta pública. Esta petición incluye ChatGPT-5 que, desde que salió la última actualización, tiene toda la atención del equipo de OpenAI.

Entre las caras conocidas que han firmado el documento, están, aparte de Musk, Yoshua Bengio, profesor de la Universidad de Monreal, que es considerado pionero de la IA moderna; Steve Wozniak, creador de la primera máquina Apple; Yuval Noah Harari, historiador; y Jaan Tallinn, cofundador de Skype.

La carta, publicada en Future of Life Institute, una organización sin ánimo de lucro cuya finalidad es luchar contra los riesgos tecnológicos que pueden ser un peligro para la humanidad, exige que la pausa de entrenamiento sea "pública y verificable". No obstante, no ofrecen ejemplos de cómo podría verificarse dicha interrupción.

Los firmantes explican que "si la pausa no puede promulgarse rápidamente", los gobiernos deberán ser los encargados de "intervenir e instituir una moratoria".

Microsoft prohíbe a otros buscadores que usen sus datos como "base y aprendizaje" para sus propios productos de chat de IA

En el documento, apuntan a que las IAs "pueden suponer un profundo riesgo para la sociedad y la humanidad" y que no se está teniendo la planificación y cuidado pertinente. "Se ha producido una carrera descontrolada para desarrollar sistemas cada vez más poderosos que nadie, ni siquiera sus creadores, entienden, predicen o pueden controlar con fiabilidad", defienden.

Durante la paralización del entrenamiento de IAs potentes, los firmantes proponen que los laboratorios y los expertos independientes aprovechen "para desarrollar e implementar de forma conjunta una serie de protocolos de seguridad". También piden a los Gobiernos que aceleren unos marcos regulatorios que sean capaces de vigilar el desarrollo y pensar protocolos para mitigar posibles daños.

En colaboración con:

Este sitio utiliza cookies de Google para ofrecer sus servicios y analizar el tráfico. La información sobre su uso de este sitio se comparte con Google. Al utilizar este sitio, usted acepta el uso de cookies.