“Una mentira es como una bola de nieve; cuanto más rueda, más grande se vuelve.”. Martín Lutero

La Habana, Cuba. – Como decían, las abuelas “Éramos pocos y parió Catana”. Es la frase que me viene a la mente al otear este mundo loco donde se han hecho cotidianas las “fake news”. Pero ahora, se sube la parada por los malos del ciberespacio con un nuevo juguete, los “deepfake”, estos son vídeos manipulados usando técnicas de inteligencia artificial, con un resultado extremadamente realista. Pero, entremos en materia.

Un video del presidente ejecutivo de Facebook, Mark Zuckerberg en el que dice que una persona es dueña de todos sus secretos generó preocupación entre los expertos del sector. Aunque era un mensaje falso, con frases que él nunca pronunció de esa forma, el audiovisual resultante, es tan realista que asusta.  La tecnología detrás de la manipulación es conocida como deepfakes, que no es más que una aplicación que utiliza inteligencia artificial con el objetivo de emular la gesticulación facial de un ser humano en un video, a partir de miles de imágenes de esa persona obteniéndose resultados bastante convincentes. Deepfake, es un acrónimo formado por las palabras fake, falsificación, y deep learning, aprendizaje profundo.

La preocupación que se tiene con ese tipo de producto es que la autenticidad del contenido es cada vez más difícil de comprobar. Las nuevas capacidades para engañan la vista humana “normal” en medio de la gran desinformación que circula por internet, por lo que cada persona tiene ante sí un desafío, el estar preparado para chequear la veracidad de lo que llega a su terminal.

El principio fundamental del funcionamiento de los deepfakes son las redes generativas antagónicas (GAN por sus siglas en inglés), un desarrollo en el que dos algoritmos compiten entre sí por crear piezas cada vez más realistas. Ese tipo de redes neuronales funcionan más o menos como el juego del policía y el ladrón. Un algoritmo discriminador es entrenado para diferenciar algo entre un conjunto de datos, como por ejemplo un perro. Para lograrlo, necesitan muchas imágenes de perros y de suficiente variedad para que, si se ve un Doberman, un salchica o un sato, sea capaz de reconocerlos y diferenciarlos. El otro algoritmo, el generador, actúa conociendo criterios previos sobre qué sería falso o qué sería real para el discriminador. Su trabajo es generar contenidos, como fotos de perros creados artificialmente, para engañar al discriminador. Si el perro está teñido de azul, es un perro sin pelos como los perros chinos y sin orejas o rabo, fallará en el intento, pero a medida que se ajusta el algoritmo, éste será cada vez más eficiente.

Esos programas generan y evalúan patrones y luego califican los resultados probabilísticamente. Esas redes son usadas frecuentemente para varios fines, que van desde producir imágenes hasta generar claves seguras de forma automática, pero continuamente aparecen nuevos nichos. Hace unos meses se subastó en Estado Unidos un cuadro generado por inteligencia artificial por un valor superior a los 400 000 dólares. La creación “The Baron of Belamy”, inspirado en las obras de Rembrandt, fue generado por un algoritmo GAN, del colectivo francés Obvious, que se alimentó con más de 15 000 retratos y pinturas existentes. Los deepfakes son más que redes GAN, para lograr eso resultados, tan realistas, usan otras herramientas de inteligencia artificial para acoplar un rostro o una parte de éste generado artificialmente en un video real. Elementos como las sombras, la gesticulación y los ángulos son ajustados por los sistemas computarizados.

Esta tecnología vio su origen en el mundo del cine. Uno de los ejemplos más famoso de su implementación fue en la última película de la saga Star Wars, “Rogue One” del 2016, en la cual el fallecimiento de la actriz Carrie Fisher que interpretaba el personaje de la princesa Leia durante el rodaje, fue resuelto filmando a la actriz noruega Ingvil Deil. Para lograrlo se usaron técnicas de inteligencia artificial en el procesamiento de las escenas que faltaban por grabar.

Tradicionalmente, los fakes audiovisuales, que más adelante terminarían nombrándose deepfakes, eran obras que pretendían engañar a través de los estímulos visuales y auditivos. En inglés, también se les designaba como mockumentaries (documentales falsos), los cuales utilizaban códigos típicos del documental para generar en el espectador la sensación de que la historia que se les contaba era cierta, aunque siempre había un aviso de los autores informando que el contenido era falso. Un ejemplo paradigmático fue la emisión radiofónica «La guerra de los mundos», dirigida y narrada por Orson Welles en 1938. Ese episodio causó el pánico a millones de estadounidenses, los cuales se habían creído como verdadera la adaptación radiofónica de la novela de Herbert George Wells, que afirmaba que se estaba produciendo una invasión extraterrestre en la Tierra, aunque varios avisos habían subrayado que era una narración ficticia. Con ese ejemplo se apreciar que los deepfakes hace ya muchos años se creaban. Un ejemplo aún más antiguo es un retrato del presidente de los Estados Unidos, Abraham Lincoln, fechado en 1865. En él, el rostro del presidente fue superpuesto encima la cabeza de una impresión más antigua realizada por A.H. Ritchie en 1852, donde aparecía John C. Calhoun apoyado en un escritorio de una sala azulejada. Como último ejemplo señalo el del momento histórico en que el explorador y médico estadounidense Frederick Cook presentó públicamente una información, con pruebas audiovisuales (archivos sonoros y fotografías) afirmando que había llegado al Polo Norte en 1908, cuando no fue así. Por suerte, al cabo de unos años se consiguió desmentir la falsa noticia.

En 1997 se creó el que realmente se podría considerar el antecedente más cercano a lo que actualmente se conoce como deepfake, el programa “Video Rewrite”, consiguió por primera vez modificar las imágenes de un vídeo donde una persona hablaba, aunque en realidad, lo escuchado era de una pista de audio diferente. Ese programa fue el primer sistema en establecer conexión entre los sonidos producidos por el sujeto del vídeo y la forma de su cara mediante técnicas de aprendizaje automático de una computadora.

Esos materiales comenzaron siendo vídeos pornográficos a los que un usuario de la red Reddit añadía caras de actrices famosas, como han sido Emma Watson, Gal Gadot y Scarlett Johannson; ese hacker utilizaba el alias Deepfake y algo llamativo des que solo necesitó su computadora personal y el algoritmo de aprendizaje automático para dar el salto de la manipulación de imágenes fijas al vídeo con resultados profesionales y extremadamente realistas. Después de Deepfake, otro usuario llamado Deepfakeapp hizo una aplicación que permitía a cualquier persona con conocimientos elementales de informática manipular vídeos, una herramienta diseñada especialmente para las llamadas pornovenganzas, es decir, la publicación no autorizada y malintencionada de imágenes comprometidas de ex-amantes.

Según un informe elaborado por Deeptrace, el 96% de los vídeos falsos siguen siendo de carácter pornográfico, pero más allá del agravio personal que supone una pornovenganza, uno de los grandes problemas de los deepfakes es su uso para manipular la información, con consecuencias que pueden ser mucho más graves que una noticia falsa, es conocido el proverbio de que una imagen vale más que mil palabras. En el 2018, un vídeo en el que un supuesto Barak Obama llamaba imbécil a Donald Trump dio la vuelta al mundo, se trataba de una grabación falsa en la que el actor Jordan Peele y el presidente ejecutivo de la empresa Buzzfeed, Jonah Peretti intentaban concientizar del peligro de la información no verificada y de los deepfake.

La capacidad de estos videos de parecer tan reales está dada por las posibilidades de modelado que tienen las aplicaciones para realizar los deepfakes, provocando que los sesgos cognitivos y los esquemas mentales del ser humano le traicionen. Un estudio del Pew Research Center afirma que uno de cada cinco usuarios de internet se informa de las noticias a través de la plataforma YouTube, mientras la segunda más popular es Facebook, dos sitios webs donde es muy fácil crear y promocionar un canal propio informativo en que un político diga algo que realmente nunca dijo para afectarle o incluir la imagen de una persona en un material pornográfico para perjudicarla o chantajearla.

La firma de inteligencia artificial Deeptrace encontró 15 000 deepfakes en Internet en septiembre de 2019, el doble de los que había nueve meses antes. El 96% de ellos eran material pornográfico manipulado. En enero de 2020, Facebook prohibió los deepfakes (excepto los que sean claramente parodias). Existen varios tipos de deepfakes: deepfaces, consisten en crear imágenes convincentes, aunque completamente falsas, desde cero y los deepvoices, se suplanta la voz de una persona en un audio. En 2019 se produjo el primer delito cibernético por medio de la inteligencia artificial. Unos cibercriminales hicieron creer, utilizando deepvoices, a un ejecutivo que estaba hablando con el presidente de su empresa, haciendo que le transfiriese 250 000 dólares.

Si bien los deepfakes se empezaron a utilizar en el material pornográfico, en la actualidad se han sumado otras áreas, como son: propagar noticias falsas; generar desinformación; desacreditar a personas; cometer delitos relacionados con el honor, la imagen o el fraude; influir en votaciones, toma de decisiones o pensamiento grupal; llevar a cabo venganzas, manipular mercados financieros y desestabilizar las relaciones internacionales.

Por otro lado, el hecho que ese tipo de vídeos y fake news se difundan por las redes sociales tan rápidamente, llegando a millones de personas genera una crisis de fiabilidad en la información recibida, con impactos negativos en la sociedad a la que se le nombra information apocalypse o “infopocalypse”. Esta situación provoca que la población al habituarse a encontrar información engañosa, duda de la credibilidad de toda la información que recibe, por lo que muchas personas acaban asumiendo ideas ciertas como falsas simplemente por el hecho que se han aferrado a la idea de que cualquier cosa que ellos no desean creer, es falsa.

Por todo lo anteriormente dicho, las personas que de una forma u otra crean corrientes de opinión, como son: prescriptores, periodistas, comunicadores, profesores y políticos, tienen un trabajo serio que realizar en la elección y comprobación de la autenticidad de la información que comunican. Con esto cierro.

Ah, recuerden, si me ven por ahí me saludan.