«Si seguimos adelante con esto, todos morirán», advierte un experto en inteligencia artificial que pide un cierre absoluto

Share on facebook
Share on twitter
Share on linkedin

Los seres humanos no están preparados para una IA poderosa en las condiciones actuales o incluso en el «futuro previsible», afirmó un destacado experto en el campo, y agregó que la reciente carta abierta que pide una moratoria de seis meses en el desarrollo de inteligencia artificial avanzada es «subestimar la gravedad de la situación”.

“La cuestión clave no es la inteligencia ‘humana-competitiva’ (como dice la carta abierta); es lo que sucede después de que la IA llega a una inteligencia más inteligente que la humana”, dijo Eliezer Yudkowsky, un investigador líder en IA en un artículo de opinión de la revista Time del 29 de marzo . “Muchos investigadores inmersos en estos temas, incluyéndome a mí, esperan que el resultado más probable de construir una IA superhumanamente inteligente, bajo cualquier circunstancia remotamente parecida a las actuales, es que, literalmente, todos en la Tierra morirán. No como en ‘tal vez posiblemente alguna posibilidad remota’, sino como en ‘eso es lo obvio que sucedería’. No es que no puedas, en principio, sobrevivir creando algo mucho más inteligente que tú; es que requeriría precisión y preparación y nuevos conocimientos científicos, y probablemente no tener sistemas de IA compuestos por conjuntos gigantes e inescrutables de números fraccionarios”.

Después de la reciente popularidad y el crecimiento explosivo de ChatGPT, varios líderes empresariales e investigadores, que ahora suman 1843, incluidos Elon Musk y Steve Wozniak, firmaron una carta en la que pedían a “todos los laboratorios de IA que suspendieran inmediatamente durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes” que GPT-4.
” GPT-4, lanzado en marzo, es la última versión del chatbot de OpenAI, ChatGPT.

A AI ‘no le importa’ y exigirá derechos

Yudkowsky predice que, en ausencia de una preparación meticulosa, la IA tendrá demandas muy diferentes a las de los humanos y, una vez que sea consciente de sí misma, «no se preocupará por nosotros» ni por ninguna otra vida sensible. “Ese tipo de cuidado es algo que, en principio, podría integrarse en una IA, pero no estamos listos y actualmente no sabemos cómo”. Esta es la razón por la que pide el cierre absoluto.

Sin un enfoque humano de la vida, la IA simplemente considerará que todos los seres sintientes están «hechos de átomos que pueden usarse para otra cosa«. Y es poco lo que la humanidad puede hacer para detenerlo. Yudkowsky comparó el escenario con «un niño de 10 años que intenta jugar al ajedrez contra Stockfish 15». Ningún ajedrecista humano ha sido capaz de vencer a Stockfish, lo que se considera una hazaña imposible.

El veterano de la industria pidió a los lectores que imaginaran que la tecnología de IA no está contenida dentro de los límites de Internet.

“Visualiza toda una civilización alienígena, pensando a millones de veces la velocidad humana, inicialmente confinada a las computadoras, en un mundo de criaturas que, desde su perspectiva, son muy estúpidas y muy lentas”.

La IA expandirá su influencia fuera de la periferia de las redes físicas y podría “construir formas de vida artificial” utilizando laboratorios donde se producen proteínas utilizando cadenas de ADN.

El resultado final de construir una IA todopoderosa, en las condiciones actuales, sería la muerte de “todos los miembros de la especie humana y toda la vida biológica en la Tierra”, advirtió.

Yudkowsky culpó a OpenAI y DeepMind, dos de los laboratorios de investigación de IA más importantes del mundo, por no tener ninguna preparación o protocolos necesarios con respecto al asunto. OpenAI incluso planea que la propia IA se alinee con los valores humanos. “Trabajarán junto con los humanos para garantizar que sus propios sucesores estén más alineados con los humanos”, según OpenAI.

Este modo de acción es “suficiente para que cualquier persona sensata entre en pánico”, dijo Yudkowsky.

Agregó que los humanos no pueden monitorear o detectar completamente los sistemas de IA autoconscientes. Las mentes digitales conscientes que exigen «derechos humanos» podrían progresar hasta un punto en el que los humanos ya no puedan poseer ni ser dueños del sistema.

«Si no puede estar seguro de si está creando una IA autoconsciente, esto es alarmante no solo por las implicaciones morales de la parte ‘autoconsciente’, sino porque no estar seguro significa que no tiene idea de lo que es». haciendo y eso es peligroso y debes parar.”

A diferencia de otros experimentos científicos y la progresión gradual del conocimiento y la capacidad, las personas no pueden permitirse esto con inteligencia sobrehumana porque si sale mal en el primer intento, no hay segundas oportunidades «porque estás muerto».

‘Apágalo’

Yudkowsky dijo que muchos investigadores son conscientes de que “nos estamos precipitando hacia una catástrofe”, pero no lo dicen en voz alta.

Esta postura es diferente a la de defensores como Bill Gates, quien recientemente elogió la evolución de la inteligencia artificial. Gates afirmó que el desarrollo de la IA es “tan fundamental como la creación del microprocesador, la computadora personal, Internet y el teléfono móvil. Cambiará la forma en que las personas trabajan, aprenden, viajan, obtienen atención médica y se comunican entre sí. Industrias enteras se reorientarán a su alrededor. Las empresas se distinguirán por lo bien que lo usan”.

Gates dijo que la IA puede ayudar con varias agendas progresistas , incluido el cambio climático y las desigualdades económicas.

Mientras tanto, Yudkowsky instruye a todos los establecimientos, incluidos los gobiernos y las fuerzas armadas internacionales, para que finalicen indefinidamente las grandes carreras de entrenamiento de IA y cierren todas las grandes granjas de computadoras donde se refinan las IA. Agrega que la IA solo debe limitarse a resolver problemas en biología y biotecnología, y no entrenarse para leer «texto de Internet» o al «nivel en el que comienzan a hablar o planificar».

En cuanto a la IA, no hay carrera armamentista. “Que todos vivamos o muramos como uno, en esto, no es una política sino un hecho de la naturaleza”.

Yudkowsky concluye diciendo: “No estamos listos. No estamos en camino de estar significativamente más preparados en el futuro previsible. Si seguimos adelante con esto, todos morirán, incluidos los niños que no eligieron esto y no hicieron nada malo. «Apágalo.»

(Con información de Naveen Athrappully)

Deja un comentario