Por Lalo Zanoni
El ex presidente Obama habla por cadena nacional para alertar sobre los peligros de los videos falsos. La actriz Jennifer Lawrence da una conferencia de prensa con la cara del actor Steve Buscemi. Un vecino común es filmado por una cámara de seguridad con un arma en la mano. Ninguno de estos videos son reales. Son montajes hiperrealistas creados mediante software con Inteligencia Artificial. Se los llama deepfake y tienen un nivel tan alto de sincronización que a los humanos ya nos cuesta mucho poder distinguir uno verdadero de otro falso.
Esta semana todo el mundo se sorprendió cuando circuló en las redes la famosa Gioconda en movimiento y otros retratos históricos. Fueron creadas por investigadores del Centro Samsung de Inteligencia Artificial de Moscú y el Instituto Slolkovo. La novedad es que el sistema puede crear videos a partir de una sola foto que sirve como base.
La tecnología usada en todos estos videos son, en realidad, un eslabón más de la cadena para construir y difundir noticias falsas o engañosas (fake news). El objetivo principal es la desinformación masiva y el engaño a la opinión pública con algún objetivo concreto, generalmente político.
El video de la actriz Lawrence, por ejemplo, fue creado con un software gratuito llamado faceswap y el algoritmo fue entrenado mediante grandes cantidades de contenido. Miles de fotos y videos verdaderos del actor Buscemi se agregaron a una base de datos para que el soft de aprendizaje automático copie sus gestos, movimientos, ojos, boca, forma de hablar, etc. Después se acoplan esas imágenes a otra persona, haciendo los mismos movimientos.
Cuantas más y mejores imágenes se usen para entrenar al algoritmo, más realista será la creación digital final.
Los videos deepfake tiene su origen en la industria del porno. Las caras de los actores y las actrices son reemplazados por celebrities para que los videos falsos circulen en redes sociales o a la caza de clicks en sitios porno con títulos como “Jennifer Aniston teniendo sexo con Brad Pitt”.
Pero también se usan para objetivos más honestos. Como el Museo Salvador Dalí, de St. Petersburg, Florida, que trajo de vuelta a la vida al pintor español sin hacer brujerías sino a través de la IA y el machine learning. La agencia de publicidad norteamericana Goodby Silverstein & Partners se encargó de la idea y el proyecto. Para revivir a Dalí, fallecido en 1989 a los 84 años, se escanearon cientos de horas de entrevistas televisivas y miles de otos del artista para que su algoritmo “aprenda” los movimientos de su cara, los gestos al hablar, el tono de su voz, etc. A partir de abril de este año, los visitantes del museo podrán ser guiados por un Dalí virtual que les explicará los aspectos más importantes de sus obras.
Philips Wang, un ingeniero de 33 años que trabaja en Uber, sorprendió a millones de usuarios cuando a principios de este año creó un sitio web con fotos de personas que no existen, originadas a partir de un algoritmo de IA basado en redes neuronales que tomaron como base miles de fotos de personas reales. Se trata de la aplicación llamada Generative Adversary Networks (GAN) o Redes Gnerativas Antagónicas, porque pueden interactuar entre sí para generar algo nuevo. Es un paso más que el de reconocer un rostro u objetos (como hace Google Photos, Apple o Facebook) porque el GAN crea una cara nueva, combinando otras fotos (sexo, color de piel, tipo de pelo, edad, tipo de ojos, etc.).
Contacté a Wang y me contó que el experimento -que en poco tiempo llegó a 10 millones de usuarios- fue creado para alertar al mundo sobre este tipo de tecnologías. Desde San Francisco, donde vive, me explicó: “mi objetivo fue simplemente hacer que mis amigos y el público en general creyeran en el potencial de la IA. Y también conocer los peligros que tiene.
Es decir, difundir para generar conciencia y educar. ¡El experimento superó mis expectativas! Y eso desencadenó una conversación global, así que estoy muy contento con los resultados. Y mis amigos, que antes no tenían mucho interés en la IA, ahora quieren trabajar conmigo en varios proyectos”.
En un futuro no muy lejano cualquier foto, audio o vídeo que consumamos podría ser una creación artificial de laboratorio. El fenómeno de los deepfake preocupa mucho por la posible manipulación que podría hacerse no sólo con fines políticos sino en varios otros ámbitos.
Además las técnicas se sofistican cada día y aseguran que en uno o dos años una persona no podrá distinguirlos sin la ayuda de una máquina. Ya no solo se crearán a partir de una base real sino directamente se verán escenas que nunca existieron.
O podrán hacerse pasar por nosotros en alguna llamada (o videollamada) sin que la trampa pudiera ser detectada. En el evento para desarrolladores de Google I/O 2018, se mostró en vivo la potencia de la IA desarrollada por la empresa para un nuevo asistente virtual de Android llamado Duplex. El objetivo era demostrar qué tan avanzados están sus servicios de reconocimiento de voz (speech API) y reconocimiento de lenguajes (Cloud Natural Language) para “ayudar al usuario a hacer todo tipo de tareas en menos tiempo y de manera más simple”.
Desde el escenario, el CEO de Google Sundar Pichai hizo que una computadora, mediante un software para generar voces llamado WaveNet, llamara a un restaurante para gestionar una reserva y a una peluquería para pedir un turno. Las llamadas fueron perfectas. El asistente digital parecía una persona, con entonaciones típicas de un ser humano, pausas e incluso pequeñas dudas al responder, como hacemos habitualmente cuando hablamos con alguien.
Las dos personas del otro lado de la línea del teléfono nunca supieron que hablaban con una máquina y la voz digital fue capaz de mantener un diálogo normal. Después de la demo, Google fue muy criticada por hacerse pasar por un humano y engañar a las personas del otro lado de la línea. La empresa salió a aclarar que cuando Duplex esté listo para el uso general, se identificará como un bot antes de cada llamada.
Los expertos en IA ya están trabajando para combatir estos videos falsos. Aseguran que la mejor manera de contrarrestar las mentiras es con más y mejores algoritmos de IA. Es decir, que otras aplicaciones de aprendizaje automático, mucho más sofisticados que el ojo humano, tengan la capacidad de detectar, advertir o anular los videos en cuestión.
(Descarga el libro “Las máquinas no pueden soñar. Pasado, presente y futuro de la Inteligencia Artificial”, en www.inteligencia.com.ar)



