La amenaza de la Inteligencia Artificial (IA)

Share on facebook
Share on twitter
Share on linkedin
El mundo están en la cúspide de la mayor amenaza de la historia no solo para la democracia, sino también para la vida humana misma.

Los peligros ahora se superponen e interactúan de manera multiplicativa y compleja, incluida no solo la concentración de poder en regímenes como China y Rusia – sin olvidar a los EEUU-, sino también la capacidad de esos regímenes para utilizar nuevas tecnologías, como la inteligencia artificial ( IA ), que aumentan exponencialmente la poder de los métodos existentes de vigilancia e influencia.

La tecnología habilitada para IA será capaz de vigilar, microfocalizar e influir en las poblaciones de maneras que antes eran imposibles a través del monitoreo estatal tradicional y los algoritmos de redes sociales desarrollados de forma privada.

AI podrá encontrar coaliciones ganadoras mínimas en el espacio político n-dimensional para determinar objetivos políticos a corto y mediano plazo, por ejemplo, y luego influir en esas poblaciones a través de la producción de contenido de AI que ya se muestra en aplicaciones, como DALL·E 2 para arte, Jasper, Writesonic y Copy.ai, para todo, desde redes sociales y chatbots hasta literatura y artículos científicos.

Pero no solo los regímenes autoritarios, la IA también podría ser mal utilizada por la élite globalista, ya sean magnates de la tecnología, magnates de los negocios, programadores individuales y piratas informáticos, por ejemplo, si obtienen el control de los sistemas de IA raíz y revisan los objetivos de la IA. Tampoco los gobiernos democráticos están por encima del uso de la IA para potenciar la vigilancia, como lo demuestra Steven Feldstein en Carnegie Endowment for International Peace.

Rivalidad de IA entre EE. UU. y China

Adquirir poder a expensas del otro necesariamente incluirá IA que debe sustentar las campañas de redes sociales más exitosas del mundo.

Solo la IA puede lograr los algoritmos que usarán la microfocalización y la producción de contenido a medida para satisfacer mejor los gustos del individuo y, por lo tanto, canalizar de manera más poderosa las preferencias del individuo.

Sabemos que China persigue agresivamente las tecnologías de inteligencia artificial a la vanguardia de las aplicaciones de control social, como censurar automáticamente el contenido de las redes sociales y promover mensajes en las redes sociales que apoyen al Partido Comunista Chino ( PCCh ).

¿Control de armas de la IA?

Si se criminaliza la IA, solo los delincuentes utilizarán la IA. Las limitaciones unilaterales en el uso de IA por parte de Google, Facebook y Twitter, por ejemplo, podrían permitir que TikTok desplace más fácilmente la participación de mercado de EE. UU. y sus aliados.

IA y las grandes empresas tecnológicas

Por otro lado, el uso de la IA por parte de las grandes empresas tecnológicas estadounidenses es una concentración de poder fundamentalmente antidemocrática en manos de algunas de las corporaciones más grandes del mundo.

¿Qué hacer?

Estados Unidos podría prohibir toda microfocalización e influencia de la población estadounidense, independientemente del origen nacional de la tecnología. Al menos deberíamos hacer esto para las empresas controladas por adversarios como TikTok . Pero esto aún le permitiría a Beijing usar sus compañías de redes sociales para apuntar e influir en el resto del mundo. Un TikTok potenciado por IA podría unir al mundo contra Estados Unidos, que es exactamente lo que Beijing está tratando de hacer.

Otra opción sería que Estados Unidos y sus aliados podrían intentar prohibir e interrumpir toda la IA a nivel mundial. Esta prohibición se aplicaría por igual a los grupos de IA estadounidenses, aliados y adversarios. Eso sería más efectivo para preservar las libertades democráticas globales. Sin embargo,  plantea, obviamente, graves objeciones a la libertad de expresión y de comercio, y provocar un conflicto internacional sobre la legislación extraterritorial de EE. UU. y sus aliados.

(Con información de Anders Corr)

Deja un comentario