Compartir

Por: Carlos del Porto Banco

El éxito en la creación de la Inteligencia Artificial sería el evento más grande en la historia de la humanidad. Desafortunadamente también podría ser el último, a menos que aprendamos a evitar los riesgos. Stephen Hawking.

Como parte de los encuentros teóricos que se realizan en el marco del 45 Festival Internacional del Nuevo Cine Latinoamericano, se impartió a cuatro manos el 7 de diciembre en el Hotel Nacional de Cuba la conferencia “Inteligencia Artificial: ¿Oportunidad o Amenaza?”, por los estadounidenses Duncan Crabtree-Ireland y Jorge Aguirre, director ejecutivo nacional y negociador jefe y director de iniciativas estratégicas nacionales, respectivamente del SAG-AFTRA (sindicato que agrupa a 160 mil actores, locutores, periodistas de radio y televisión, disc jockeys, redactores y editores de noticias, presentadores de programas, titiriteros, artistas discográficos, cantantes dobles de acción, artistas de doblaje y otros profesionales de los medios).

La charla comenzó comentando sobre la explosión acontecida después del 30 de noviembre de 2022, con la aparición de la Inteligencia Artificial Generativa y su representativa más icónica, ChatGPT. Actualmente con decenas o quizás cientos de aplicaciones desarrolladas a partir de esos motores, para los más disimiles propósitos. Esta aplicación de la compañía OpenAI revolucionó a la IA de cara al público, y ha tenido una gran repercusión en la industria cinematográficas y en los medios de comunicación.

Se muestra el resultado del uso de la herramienta Cinelytic. Se le entrega un guion cinematográfico y ésta predice cuánto dinero generará la película. Para los ejemplos mostrados, films del 2019, el nivel de acierto fue del 95 por ciento. Se cometa sobre otra herramienta que a partir del guion, propone que actor o actriz deben asumir los personajes y hace valoración de que emociones se generarán en el espectador.

Los ponentes abordan el problema del sesgo heredado por las aplicaciones (sexismo, racismo y otros), ya que se entrena a las herramientas con datos pasados. Éste un problema no resuelto y del que no se sabe aun a ciencia cierta, como enfrentarlo.

Se muestra el caso de la aplicación ElevenLabs, para locución de audiolibros con una narración de un pasaje de la novela Cien Años de Soledad. Esta herramienta posee 10 mil voces generadas por IA y de ahí se selecciona cual utilizar para El doblaje, audiolibros o uso de voz en off. Se han firmado acuerdos con los familiares de iconos del cine como Judy Garland y Jean Dean para utilizar sus voces. El procedimiento es muy sencillo, se sube el audiolibro a la aplicación, se selecciona la voz y se obtiene el texto hablado con inflexiones, altos y bajos, emociones, y otros.

Puede ser una imagen de televisión y texto

En este tipo de aplicaciones hay zonas grises desde el punto de vista legal, pues al parecer se ha entrenado a los modelos con voces tomadas de internet, sin el consentimiento de las personas. Los expertos ilustran esto con un pasaje de Casablanca donde Humphrey Bogart e Ingrid Bergman hablan en español. La aplicación toma la voz original de los actores y los movimientos labiales, traduce al idioma que se desee y posteriormente pone nuevamente el texto en la voz de ellos, lo ya traducido con los movimientos de los labios adecuados. Esto tendrá un impacto tremendo en el doblaje, lo que hace necesario que las compañías de software y la industria del cine trabajen en conjunto. La tecnología no detendrá su paso.

Otro frente que requiere atención es el de los deepfakes. la aplicación Metaphysic logra que un cantante interprete una canción en cualquier idioma que se desee, solo se debe subir el video original y escoger el idioma de salida.

Otro ejemplo es el de la startup ucraniana Respeecher. Esta compañía recreó la voz de Dart Vader en la reciente serie Obi-Wan Kenobi y en Boba Felt, utilizando síntesis de voz por Inteligencia Artificial. El clon de IA de voz se superpuso a las líneas leídas por otro actor para crear un Dart Vader que “sonó más real que el real”. En el caso de Boba Felt, no solo se creó artificialmente la voz de Mark Hamill, sino también su imagen. Se contrató al artista de deepfakes Shamook, lo que hizo que la presencia de Hamill ya no fuera necesaria en el set. Se uso la tecnología de deepfakes para sobreponer la cara de Hamill en el personaje y luego Repeecher incorporó los textos. En estos casos la familia del fallecido actor James Earl Jones dio el consentimiento para el uso de la voz de éste y Hamill, también lo hizo. En estos casos los más importante es que los actores deben estar bien informados del uso de estas tecnologías y además, ser bien remunerados.

Estas herramientas tienen implicaciones profundas desde el punto de vista legal. La forma en que se realizaban los contratos dejo de tener validez. Con anterioridad el actor daba a la compañía todos los derechos para usar el film. Sin embargo, ahora no puede ser así, pudiera darse el caso por ejemplo de que se escanee la figura de un actor en el set, y posteriormente se utilice su imagen en esa película y en muchas otras, pero sólo se le pagaría un solo día de trabajo.

Unos usos que se veían venir después de los ChatGPT y Dall-E, es la generación de video a partir de un texto, los expertos conferencistas proyectaron algunos ejemplos. Una de las herramientas en uso actualmente es Sora de OpenAI. Estas herramientas aún son inmaduras ya que no permiten interacción y los videos son de muy corta duración.

Otro ejemplo llamativo fue el de creación de un video que simula el vuelo de un dron a partir de una fotografía, elaborado con Runway. Se ilustra con una imagen de la avenida 23 en El Vedado, en este caso se apreció uno de los males que aquejan a la IA generativa, las alucinaciones. La herramienta coloca edificios donde éstos no existen y hace que ómnibus pase por encima de automóviles. Sin embargo, ya esto llegó para quedarse. Se están desarrollando festivales con audiovisuales de este tipo, por ejemplo, AI Film Festival.

En el caso específico de la industria musical, se ejemplifica con la herramienta Suno, comprada por Microsoft, que crea la música, las voces y el acompañamiento, a partir de un texto. En este momento las empresas discográficas están en pleito legal debido a esto.

El uso de estas herramientas provocó hace unos meses la mayor huelga en los últimos 40 años por parte del gremio de la industria del cine en los Estados Unidos. Se voto por más del 95 por ciento de los afiliados por detener sus actividades para proteger sus derechos ante las amenazas de la IA. Se logró que las compañías cinematográficas paguen por el uso de voz sintética, a las organizaciones sindicales de las mismas regalías como si hubiesen sido utilizadas voces humanas.

En este momento se encuentra en diferentes grados de aprobación varios proyectos de leyes como son: No Fakes Act, Elvis Act, California AB 2602 and AB 1836, Illinois HB 4762 y New York S7676-B.

Los ponentes culminan su interesante charla expresando lo que consideran son los beneficios potencias es de esta tecnología en la industria audiovisual, que los resumen de la siguiente forma:

  • Automatización de tareas
  • Reducción de costos y aumento de la eficiencia
  • Flexibilidad y mayor creatividad y colaboración
  • Personalización y experiencias a la medida
  • Y accesibilidad e inclusión

La idea final de la charla es que el talento humano sigue siendo la fuente fundamental de la verdadera creatividad y las empresas exitosas sabe cómo apoyar y asociarse con el talento para garantizar el éxito mutuo a largo plazo.