Para intentar paliar lo que construyó en su día, el empresario ha firmado, junto con otros 1.100 expertos en IA, una petición a los grandes desarrolladores de estas herramientas para que frenen su entrenamiento durante medio año. Su intención es que, en ese tiempo, se puedan establecer unas regulaciones que permitan crear esta tecnología de forma más ética.
"Solicitamos a todos los laboratorios de Inteligencia Artificial que suspendan inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4", se lee en la carta pública. Esta petición incluye ChatGPT-5 que, desde que salió la última actualización, tiene toda la atención del equipo de OpenAI.
Entre las caras conocidas que han firmado el documento, están, aparte de Musk, Yoshua Bengio, profesor de la Universidad de Monreal, que es considerado pionero de la IA moderna; Steve Wozniak, creador de la primera máquina Apple; Yuval Noah Harari, historiador; y Jaan Tallinn, cofundador de Skype.
La carta, publicada en Future of Life Institute, una organización sin ánimo de lucro cuya finalidad es luchar contra los riesgos tecnológicos que pueden ser un peligro para la humanidad, exige que la pausa de entrenamiento sea "pública y verificable". No obstante, no ofrecen ejemplos de cómo podría verificarse dicha interrupción.
Los firmantes explican que "si la pausa no puede promulgarse rápidamente", los gobiernos deberán ser los encargados de "intervenir e instituir una moratoria".
Microsoft prohíbe a otros buscadores que usen sus datos como "base y aprendizaje" para sus propios productos de chat de IA
En el documento, apuntan a que las IAs "pueden suponer un profundo riesgo para la sociedad y la humanidad" y que no se está teniendo la planificación y cuidado pertinente. "Se ha producido una carrera descontrolada para desarrollar sistemas cada vez más poderosos que nadie, ni siquiera sus creadores, entienden, predicen o pueden controlar con fiabilidad", defienden.
Durante la paralización del entrenamiento de IAs potentes, los firmantes proponen que los laboratorios y los expertos independientes aprovechen "para desarrollar e implementar de forma conjunta una serie de protocolos de seguridad". También piden a los Gobiernos que aceleren unos marcos regulatorios que sean capaces de vigilar el desarrollo y pensar protocolos para mitigar posibles daños.