Los deepfakes han llegado para quedarse. Descubre cómo detectarlos.
¿Qué es el deepfake?
Un deepfake es un video, una imagen o un audio generado que imita la apariencia y el sonido de una persona. También llamados «medios sintéticos», son tan convincentes a la hora de imitar lo real que pueden engañar tanto a las personas como a los algoritmos.
Los deepfakes son generados por la IA en directo, y sus formas más comunes de aplicación son en videos o como filtros de realidad aumentada.
«Deepfake» como término proviene de la combinación de las palabras «deep learning» y «fake», para representar algo falso que es resultado de la tecnología de aprendizaje profundo.
Aunque existe un mercado creciente de aplicaciones de consumo que utilizan la tecnología deepfake para el entretenimiento, como FaceSwap, a medida que la tecnología se generalice y esté disponible, se desplegará con fines nefastos. De hecho, ya lo está haciendo, en un grado limitado, como veremos a continuación.
3 ejemplos de deepfake
Veamos tres grandes ejemplos de ellos:
- El video de Buzzfeed sobre el Obama sintético con la voz de Jordan Peele.
- Rostros humanos convincentes generados por GAN en ThisPersonDoesNotExist.com.
- La popular aplicación de intercambio de caras Reface.
1. El video deepfake de Obama/Jordan Peele
Tal vez el ejemplo más famoso de un deepfake, que en gran medida llevó a la tecnología al centro de atención, fue un video de abril de 2018 publicado por Buzzfeed que se basó en un Barack Obama sintético y un Jordan Peele auténtico. Hasta la fecha, ha acumulado más de 8,7 millones de visitas en YouTube.
2. Personas (y gatos) que no existen – Ejemplos de deepfakes de imágenes
Nuestro segundo ejemplo es el sitio web This Person Does Not Exist, que carga un nuevo rostro humano generado por GAN cada vez que se actualiza.
Aunque muchos de los resultados son muy convincentes, hay algún fallo ocasional y un efecto general de valle misterioso. Sin embargo, el sitio web es tan popular que ha inspirado sus derivados, como This Cat Does Not Exist.
3. Una aplicación que cambia tu cara por la de un famoso
Disponible tanto en la App Store como en Google Play, esta aplicación móvil de Neocortext, Inc. cuenta con 4,8/5 estrellas sobre 4,5/5 estrellas respectivamente en los dos mercados de aplicaciones.
Reface permite a los usuarios falsearse a sí mismos, intercambiando sus rostros con los de los videos, gifs e imágenes de famosos y memes. Su biblioteca se basa en gran medida en el crowdsourcing.
¿Cómo funcionan los deepfakes?
Los deepfakes se generan mediante el machine learning, más concretamente, utilizando el aprendizaje profundo y las redes adversariales generales (GAN).
En términos sencillos, esto significa que dos redes neuronales compiten entre sí, donde el objetivo de una es generar una imagen que la otra no sea capaz de distinguir a partir de sus datos de entrenamiento, y el objetivo de la segunda es evitar ser engañada de esta manera. Como explica un artículo de 2014:
«Un modelo generativo G que captura la distribución de los datos, y un modelo discriminativo D que estima la probabilidad de que una muestra provenga de los datos de entrenamiento y no de G. El procedimiento de entrenamiento de G es maximizar la probabilidad de que D se equivoque».
Los GAN son una tecnología pionera en el campo de la visualización por computadora y tienen mucho éxito a la hora de generar imágenes que se parecen a las humanas. Además, existen servicios comerciales de GAN en caso de que se carezca de la potencia informática necesaria para ejecutar estos modelos en casa.
El principal reto de la tecnología solía ser la disponibilidad de datos de entrenamiento para una persona determinada. Por eso, al disponer de muchos datos, los deepfakes de famosos fueron muy populares al principio.
Pero a medida que la tecnología avanza, resulta más fácil crear deepfakes a partir de imágenes individuales o grabaciones de sonido breves.
¿Por qué son peligrosos los deepfakes?
Debido a que tergiversan de forma convincente la realidad, los deepfakes entrañan varios peligros, como el fraude en línea, la desinformación, los engaños y el porno de venganza.
Pero, en primer lugar, debemos aclarar que no todas las aplicaciones de deepfakes son peligrosas o de dudosa naturaleza legal y ética. De hecho, la mayoría de los ejemplos conocidos son populares en el ámbito del entretenimiento y como medio para expresar la creatividad.
Sin embargo, la capacidad de hacerse pasar por una persona en un video en directo o por teléfono va a suponer un reto para los sistemas de verificación en línea, que se basan en el reconocimiento de la cara o de la voz, ya sea hecho por un humano o automáticamente por un software. De hecho, investigadores de la Universidad de Sungkyunkwan demostraron en marzo de 2021 que la mayoría de las APIs de reconocimiento facial actuales pueden ser superadas mediante el uso de deepfakes.
Según Deepfake Report, un alucinante 96% de los deepfakes en formato de video que los investigadores de la empresa de Ámsterdam Deeptrace pudieron identificar en línea eran videos porno.
Esto podría parecer relativamente inofensivo en comparación con el fraude financiero, pero no lo es si se tiene en cuenta que puede conducir a la extorsión y el chantaje, con el creador del deepfake amenazando con publicar un video privado falso de alguien, que parece tan creíble que la víctima no tiene más remedio que pagar.
Otro problema destacado por periodistas e investigadores, desde la BBC hasta Wired y Forbes, es el potencial de los deepfakes para causar daños políticos y sociales a través de la desinformación y los escándalos falsos, ya que la imagen de un personaje público puede ser manipulada para mostrarlo haciendo o diciendo cosas que nunca hizo.
Dos investigadores del EU Observer informaron de cómo el 21 de abril de 2021, la Comisión de Asuntos Exteriores del Parlamento holandés mantuvo una conversación telefónica con alguien que creían que era un político ruso de la oposición pero que, en realidad, era un deepfake de voz. Comentando el incidente, añadieron que «una vez que los deepfakes entren en el mercado de la desinformación política, los problemas que tenemos ahora pueden parecer un juego de niños».
Por estas últimas razones, los deepfakes se consideran un arma importante en los arsenales de ciberguerra, y los gobiernos nacionales intentan mitigar los deepfakes perjudiciales para el país, al tiempo que crean la capacidad de utilizarlos contra sus propios enemigos, si es necesario.
¿Qué son los shallowfakes?
Los shallowfakes son imágenes y videos engañosos manipulados con fines propagandísticos o lucrativos, no mediante el uso de una elaborada tecnología de machine learning, sino de herramientas más convencionales y accesibles de manipulación de imágenes, audio y video.
Estas pueden ser, por ejemplo, ralentizar o acelerar un video, cambiar su audio o simplemente cambiar el nombre de un archivo para dar a entender algo mucho más nefasto.
Aunque se trata de un término nuevo que refleja la palabra «deepfake», los shallowfakes existen desde hace mucho más tiempo, desde que surgieron las herramientas que permiten cada tipo. Puede que utilicen tecnología más antigua, pero pueden ser igualmente convincentes.
Un ejemplo que se cita a menudo es de octubre de 2018 y muestra al reportero de la CNN Jim Acosta interactuando con una becaria de la Casa Blanca. La versión shallowfake de este video se aceleró para que Acosta pareciera agresivo con la becaria, que intentaba quitarle el micrófono.
Finalmente, se demostró la naturaleza manipulada del video pero, en opinión de algunos comentaristas, el daño a la reputación del hombre ya estaba hecho.
¿Cómo funciona el fraude de deepfake?
Independientemente del tipo de deepfake utilizado – video, audio o incluso imágenes estáticas -, el fraude de deepfake utiliza en gran medida la tecnología para permitir al estafador hacerse pasar por otra persona.
Puede tratarse del jefe o gerente de la víctima (fraude del CEO), de un pariente lejano o similar; alguien a quien conocen pero con quien no interactúan con frecuencia y a quien, sin embargo, no querrían estafar o desobedecer.
Una vez manipulada la voz o la imagen de dicha figura en la vida de la víctima, el estafador le indicará que transfiera dinero a su cuenta o que realice otros movimientos cuestionables.
De hecho, este tipo de fraude cuenta ya con varios ejemplos destacados. Por ejemplo, el caso del director general que fue convencido por una voz falsa creada mediante clonación de voz para que transfiriera 240.000 dólares a un proveedor que no conocía, en un país diferente.
¿Cómo se pueden detectar los deepfakes?
Tanto si se trata de un video como de una imagen, hay algunas cosas a las que hay que prestar atención para detectar un deepfake:
- incongruencias en la piel (demasiado lisa o demasiado arrugada, o su edad parece desviada en comparación con el cabello);
- sombras apagadas alrededor de los ojos;
- errores de deslumbramiento en las gafas;
- vello facial de aspecto poco realista;
- lunares faciales poco realistas;
- demasiado o muy poco parpadeo;
- color de los labios fuera de lugar en comparación con la cara;
- movimiento poco realista de y alrededor de la boca.
La mayoría de los deepfakes te dejan la sensación de que algo está mal, y eso es porque hay errores en el proceso que dejan residuos.
Los anteriores son algunos puntos clave que se pueden entrenar para que el ojo humano los detecte. Junto con otras técnicas de verificación de identidad, pueden ayudarte a detectar un deepfake.
¿Cómo está afectando el fraude de deepfake a las empresas?
Los deepfakes son esencialmente suplantaciones de identidad, por lo que son un método popular de fraude a los directores generales utilizando voces sintéticas.
Los consumidores y los empleados pueden verse afectados por los intentos de phishing que utilizan deepfakes, y pueden ser víctimas de robo de identidad a través de ellos, ya que un estafador puede tratar de utilizar la tecnología deepfake para superar las verificaciones de KYC que se basan en la coincidencia de rostros y otras verificaciones biométricas.
También debemos tener en cuenta que los delincuentes y estafadores siguen ideando nuevas formas de utilizar las deepfakes, como la extorsión, el chantaje y el espionaje industrial. Las empresas, las organizaciones y los particulares deben permanecer atentos.