Los deepfakes. Un arma de desinformación masiva | Albert Mesa Rey

Share on facebook
Share on twitter
Share on linkedin

Hace unos días, se publicó en este diario digital una noticia titulada “Los ciberataques que más predominarán este 2023” y en esta se mencionaba una nueva forma de ciberataque muy sofisticada basada en la “Inteligencia Artificial” y la “Redes Neuronales”. En este artículo quisiera profundizar un poco en esta nueva “técnica”. Ya no es ciencia ficción, es realidad. Espero que este artículo sea de vuestro interés.

Que las ciencias y la técnica avanzan que es una barbaridad es un hecho indiscutible y desgraciadamente no siempre para bien. Esto es particularmente cierto en las ciencias de la computación. Si bien es cierto que la Inteligencia Artificial en (adelante la nombraré como AI) han supuesto y supondrán en el futuro más próximo grandes avances, también está suponiendo ya una poderosa y peligrosa herramienta de manipulación. Hoy quiero hablar de los “deepfakes”.

El término «deepfake» es una palabra del inglés compuesta, en la que se combinan «deep learning», o aprendizaje profundo, y «fake», es decir, falso.

De esta manera se puntualiza que este material falso, o sintético, está basado en el «aprendizaje profundo», que es parte de la IA. Los patrones de contenido detectados a través del aprendizaje profundo permiten que los programas de ordenador creen imágenes nuevas y realistas.

La creación de un “deepfake” tiene varias etapas:

  1. Las imágenes del sujeto se envían al software de aprendizaje automático. La red neural del software aprende los patrones de las imágenes y desarrolla reglas para recrearlos.
  2. Esta red «generadora» crea a continuación nuevas imágenes, como rostros y escenas, en fotogramas artificiales diseñados para parecerse al material fuente.
  3. Mientras tanto, una segunda red neural «discriminadora» se entrena con imágenes reales. Esta compara el contenido generado con el contenido real.
  4. El contenido generado que no coincide con las características aprendidas por el discriminador se rechaza hasta que tenga un aspecto tan auténtico que «engañe» al discriminador, de tal forma que lo acepte.

Unos pocos ejemplos:

Supongamos la cara de origen es de una persona que habla en inglés, cuyos patrones y características faciales fueron mapeados. La cara objetivo es de una persona que habla en francés, cuyo rostro también fue mapeado y el software grabó sus movimientos al hablar. A continuación, se utiliza una red generadora para recrear la cara de origen y que hiciera los mismos movimientos, de modo que pareciera que nuestro hablante de inglés hablaba en francés. ¿Parece ciencia-ficción? Pues no lo es. Esto es posible hoy en día y no se necesita un equipamiento solo al alcance de la NASA, pongo por caso.

Se ve a una persona caminando a través de una plaza de la ciudad en la grabación original. Mediante el uso de funciones de eliminación de objetos con IA en el software de edición de vídeos, la persona objetivo se elimina en la versión manipulada y el software recrea el fondo. Esto permite realizar modificaciones rápidas sin la necesidad de tener habilidades profesionales en el manejo de imágenes generadas por ordenador (CGI, por sus siglas en inglés).

Se puede crear archivo con un audio de origen y un audio de destino para recrear las características de audio del hablante fuente. FJL en su programa “La Mañana de Federico” en Esradio, contaba como no quiso atender una llamada del excomisario Villarejo por el temor de que pudiera poner en su boca, usando estas técnicas, cosas que nunca dijo ni diría. FJL sabía que eso era una posibilidad factible y no una paranoia.

Se pueden crear rostros artificiales generados usando tecnología de aprendizaje profundo. Es el trabajo de una compañía llamada Generated Photos. Seguramente te preguntarás para que sirve eso. Es una buena utilidad que puede usarse para crear perfiles falsos. Se usarían en investigación OSINT Open Source Intelligence o Inteligencia de Fuentes Abiertas) o para el mal, para el engaño en redes sociales.

¿Todos es malo? ¿Hay usos positivos para esta tecnología?

Por supuesto que sí. La avanzada tecnología que hay detrás de estos vídeos tiene una serie de aplicaciones comerciales, especialmente en sectores creativos como la publicidad y la realización de películas. Los anuncios y las campañas pueden doblarse más fácilmente, la ocupación del tiempo de los actores puede reducirse y se pueden crear efectos especiales de manera más rápida y segura.

¿Cuáles son las posibles consecuencias negativas?

Los vídeos sintéticos pueden crearse con una motivación maliciosa, en un intento por influir en el comportamiento de las personas. Otros vídeos sintéticos pueden presentarse como una forma de sátira, pero no son reconocidos como tal por parte de la audiencia.

Algunos medios sintéticos pueden querer tener un impacto a gran escala, ya que pretenden influir en las intenciones de los votantes antes de unas elecciones. Por otro lado, los medios pueden ser muy selectivos, con el objetivo de poner en evidencia o chantajear a un individuo.

Conclusión

Quizás una vez más y hoy en día un mucho más habría que tener siempre en memoria aquello que “Las apariencias engañan”. Los métodos para engañar se han sofisticado de la mano de la computación lo suficiente como para estimular el escepticismo.

Estas técnicas no solo pueden ser usadas por los “malos” para extorsiones o despojarnos de nuestro patrimonio. A mi personalmente me preocupa mucho más cuando estas técnicas las usa el “poder”. Con muchos más medios, pueden manipular opiniones y sentimientos que pueden marcar el destino de sociedades.

Por lo tanto amable lector, antes de dar por válida una información que sea relevante para que adoptes una posición/actitud u otra, te sugiero que aparques tus sesgos cognitivos y busques otras opiniones. Con muy poco esfuerzo y usando el mismo medio por donde te ha llegado la noticia (Internet), también puedes encontrar alternativas. De momento aún hay cierta libertad en la red.

Albert Mesa Rey es de formación Diplomado en Enfermería y Diplomado Executive por C1b3rwall Academy 2022. Soldado Enfermero de 1ª (rvh) y Clinical Research Associate (jubilado). Escritor y divulgador. Actualmente director del diario digital «Benemérita al día» del Círculo Ahumada – Amigos de la Guardia Civil .

 

Deja un comentario