La falta de transparencia sobre el tratamiento de los datos personales que hace esta inteligencia artificial está detrás de la decisión de las autoridades italianas
La voz de alarma llegó desde la italiana GPDP (Garante per la Protezione dei Dati Personali): Italia se ha convertido en el primer país occidental en bloquear el uso de ChatGPT. ¿El motivo? Las dudas que genera la recopilación y uso de los datos personales del chatbot de OpenAI, que está revolucionando el sector tecnológico desde principios de año.
Italia no es el único país
El debate se ha abierto en varios países europeos, que han puesto la lupa sobre esta herramienta, cuestionada también por los líderes de la IA a nivel mundial. Y es que ChatGPT está bajo sospecha y una de las claves es la transferencia internacional de datos personales.
La falta de transparencia sobre el tratamiento de los datos personales que hace esta inteligencia artificial está detrás de la decisión de las autoridades italianas. También la falta de límites para el acceso de menores de edad.
Y en este contexto, Italia no ha sido el primer país en cuestionar y poner en entredicho el chatbot de OpenAI. Ahora hay varios otros países europeos, entre ellos Francia y Alemania, donde se discute si deben seguir el mismo camino, el del bloqueo del uso de ChatGPT.
Las garantías en materia de protección de datos son las que están detrás de la decisión de Italia. Y es que el uso de los datos personales por parte de ChatGPT genera dudas. En Irlanda, Francia y Alemania, y también en el Reino Unido, existe inquietud entre los responsables de administraciones públicas y de organismos de privacidad sobre el cumplimiento del Reglamento Europeo de Protección de Datos (RGPD).
Ley de inteligencia artificial
Precisamente ahora, la Unión Europea está inmersa en el debate de la propuesta de Ley de inteligencia artificial, que regula los usos de esta tecnología. La idea es fomentar la innovación y reforzar la protección del interés público. El proyecto, que se publicó en abril de 2021, se basa en el establecimiento de requisitos y exigencias de cumplimiento legal específicos para cuatro escenarios de riesgo distintos. Pero, dos años después, aún no se ha aprobado.
La Ley de inteligencia artificial, cuando se apruebe, deberá crear un marco legal equiparable entre los dos continentes, que proteja los derechos de los ciudadanos pero que no bloquee ni obstaculice el desarrollo de la IA ni deje a Europa en los márgenes de la innovación de esta tecnología. Y esto, visto lo visto con la normativa de protección de datos, no es fácil.
ChatGPT bajo sospecha
Hasta ahora ChatGPT ha sido testeado masivamente en su versión gratuita por usuarios de todo el mundo. La curiosidad, las ganas de ser los primeros en probar su inteligencia y su capacidad de aprendizaje en distintos sectores, la novedad de una IA que puede ocupar el lugar de un humano ha creado enormes expectativas y no se ha demostrado que limite su uso a los menores de edad.
Varias compañías se volcaron en lanzar alternativas a ChatGPT con interfaces similares y a invertir en innovaciones de la inteligencia artificial. También a colaborar con investigadores, como Meta, que ha abierto LLaMa a los desarrolladores a menor escala. Pero de momento ninguno ha estado a la altura de la herramienta de OpenAI.
No solo las autoridades y responsables de protección de datos europeos han cuestionado el chatbot. De hecho, ChatGPT está bajo sospecha en varios frentes y recientemente se ha alertado sobre los riesgos de esta herramienta. En la deep web ya se han publicado guías para hacer phishing, elaborar códigos maliciosos y realizar fraudes y robos de identidad.
Líderes contra el GPT-4
Y hasta los mismos desarrolladores de IA a nivel mundial y empresarios tecnológicos han alzado la voz en una carta abierta para pedir que se frenen los avances en la versión GPT-4. Más de un millar pedía un parón que debería durar, al menos, seis meses. Entre ellos, estaban Elon Musk, CEO de Tesla; Steve Wozniak, cofundador de Apple; Emad Mostaque, CEO de Stability AI; desarrolladores de DeepMind (Google) e investigadores de la inteligencia artificial, como Yoshua Bengio y Stuart Russell, pesos pesados del campo de la IA, han firmado un manifiesto que pide frenar el desarrollo de esta tecnología durante seis meses.
Según recoge Reuters, los firmantes han pedido detener el entrenamiento de sistemas más potentes que GPT-4, el modelo que acaba de lanzar OpenAI, aludiendo a posibles riesgos para toda la humanidad.
La prohibición de TikTok
El caso de ChatGPT guarda algunas similitudes con el de la red social TikTok, cuyo uso se ha prohibido en numerosos países. La justificación por parte de distintas entidades se basaba en un supuesto riesgo para la seguridad, aunque sin ofrecer mayores detalles. Sin embargo, el punto en común son también los datos que recaba la aplicación.
En las próximas semanas habrá que analizar si las explicaciones que ofrezca OpenAI convencen a las autoridades italianas. Es probable que su respuesta siente un precedente para el resto de órganos de privacidad de los países europeos, en los que se ha abierto el debate sobre el bloqueo de la inteligencia artificial de ChatGPT. Algunos riesgos ya se conocen y no son pocos quienes advierten de que un desarrollo tan precipitado de esta tecnología, sin una regulación adecuada, pueda generar más perjuicios que beneficios.
(Con información de The Objective)
1 comentario en «ChatGPT bajo sospecha: Europa pone la lupa en los datos personales que recopila OpenAI»