Aún cuando la mayoría de los investigadores creen que la inteligencia artificial (IA) “pronto podría conducir a un cambio social revolucionario”, el 36 % se preocupa de que las decisiones de la IA “puedan causar una catástrofe a nivel nuclear”.
El informe continúa: “Sin embargo, son propensos a las alucinaciones, habitualmente sesgados y pueden ser engañados para que sirvan a fines nefastos, lo que resalta los complicados desafíos éticos asociados con su despliegue”.
El análisis “se produce en medio de crecientes llamados a la regulación de la IA luego de controversias que van desde un suicidio vinculado a un chatbot hasta videos falsos del presidente ucraniano Volodymyr Zelenskyy que parece rendirse a las fuerzas invasoras rusas”.
327 expertos
En particular, la encuesta midió las opiniones de 327 expertos en el procesamiento del lenguaje natural, una rama de la informática esencial para el desarrollo de los chatbots, en mayo y junio de 2022, meses antes del lanzamiento en noviembre de 2022 de ChatGPT de OpenAI “tomó el mundo de la tecnología por asalto, ”, informó el medio de comunicación.
En marzo, Geoffrey Hinton , considerado el «padrino de la inteligencia artificial», le dijo a Brook Silva-Braga de CBS News que los impactos potenciales de la tecnología que avanza rápidamente son comparables a «la Revolución Industrial, o la electricidad, o tal vez la rueda».
Cuando se le preguntó sobre las posibilidades de que la tecnología “aniquile a la humanidad”, Hinton advirtió que “no es inconcebible”.
Ese potencial alarmante no reside necesariamente en las herramientas de IA existentes actualmente , como ChatGPT, sino más bien en lo que se denomina «inteligencia general artificial» (AGI), que abarcaría a las computadoras que desarrollan y actúan según sus propias ideas.
“Hasta hace poco, pensé que pasarían de 20 a 50 años antes de que tuviéramos IA de propósito general”, dijo Hinton a CBS News. “Ahora creo que pueden ser 20 años o menos”. Hinton admitió, además, que no descartaría la posibilidad de que AGI llegara dentro de cinco años, un cambio significativo con respecto a hace unos años cuando «habría dicho: ‘De ninguna manera'».
“Tenemos que pensar mucho sobre cómo controlar eso”, dijo Hinton. Cuando se le preguntó si eso es posible, Hinton dijo: «No lo sabemos, aún no hemos estado allí, pero podemos intentarlo».
Resultados de la encuesta
El pionero de la IA está lejos de estar solo. Según la encuesta de informáticos realizada el año pasado, el 57 % dijo que «el progreso reciente nos está moviendo hacia AGI» y el 58 % estuvo de acuerdo en que «AGI es una preocupación importante».
En febrero, el CEO de OpenAI, Sam Altman, escribió en una publicación de blog de la empresa : “Los riesgos podrían ser extraordinarios. Un AGI superinteligente desalineado podría causar graves daños al mundo”.
Carta abierta
Más de 25.000 personas firmaron una carta abierta publicada el 22 de marzo que pide una moratoria de seis meses para entrenar sistemas de IA más allá del nivel del último chatbot de OpenAI, GPT-4, aunque Altman no se encuentra entre ellos.
“Los sistemas de inteligencia artificial potentes deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, dice la carta.
El Financial Times informó el 14 de abril que el CEO de Tesla y Twitter, Elon Musk , quien firmó la carta pidiendo una pausa, está “desarrollando planes para lanzar una nueva empresa de inteligencia artificial para competir con” OpenAI.
Con respecto a AGI, Hinton dijo: “Es muy razonable que la gente se preocupe por esos problemas ahora, aunque no sucederá en el próximo año o dos. La gente debería estar pensando en esos temas”.
Si bien aún faltan algunos años para AGI, ya aumentan los temores de que las herramientas de IA existentes, incluidos los chatbots que escupen mentiras, las aplicaciones de intercambio de rostros que generan videos falsos y las voces clonadas que cometen fraude, estén preparadas para acelerar la propagación de información errónea.
(Con información de Kenny Stancil)