Desde el intercambio de caras hasta los filtros 3D, los efectos digitales son accesibles de una manera como nunca antes. Pero, ¿qué son estos deepfakes que toman Internet por asalto? ¿Cómo está evolucionando esta tecnología y qué tiene que ver la Inteligencia Artificial (IA) con ella?
Si estás activo en las redes sociales, es posible que hayas visto muchas aplicaciones y filtros utilizados para intercambiar caras en imágenes y vídeos. Esa tecnología ha existido durante muchos años, pero rara vez ha producido resultados tan creíbles.
Hoy en día, hay varias formas diferentes de intercambiar caras de una manera muy realista. No todos usan IA, pero algunos sí: deepfake es uno de ellos.
Veamos qué son los Deepfakes, cómo se crean, cómo detectarlos y cómo podemos protegernos de ellos.
En este artículo hablamos de:
¿Qué son los Deepfakes?
Deepfake generalmente se refiere a vídeos en los que la cara y / o la voz de una persona, generalmente una figura pública, ha sido manipulada utilizando software de inteligencia artificial de una manera que hace que el vídeo alterado se vea auténtico.
Las falsificaciones profundas se consideran una fuente de preocupación porque a menudo se las utiliza para inducir a error intencionalmente, como hacer que parezca que un político dijo algo que no dijo, o hacer que parezca que una celebridad estaba en un vídeo pornográfico en el que no estaba.
Deepfakes utiliza tecnología de aprendizaje automático de inteligencia artificial (IA) desarrollada por académicos, aficionados e industria. El desarrollo inicial se produjo a fines de la década de 1990, y los avances importantes se realizaron a fines de la década de 2010.
Esta tecnología se basa en algoritmos sofisticados en los que, por decirlo de manera simple, una IA genera imágenes de personas y una segunda IA adivina si las imágenes son reales o falsas. De esta manera, las IA mejoran cada vez más en lo que están haciendo.
Los codificadores automáticos y las redes de confrontación generativas son algunos de los nombres técnicos involucrados en estos algoritmos. Junto con las imágenes, los deepfakes pueden crear audio con sonido real.
Como término, deepfake combina falso (porque los medios son falsos, no genuinos) y aprendizaje profundo, un tipo de redes neuronales artificiales basadas en aprendizaje automático. Estas redes, nuevamente, para ser simplistas, son como programas de computadora modelados a partir de cerebros.
Las formas de deepfakes también se han dirigido a figuras públicas, como el CEO de Facebook, Mark Zuckerberg, y la Presidenta de la Cámara de Representantes de EE.UU., Nancy Pelosi, lo que ha generado crecientes preocupaciones sobre el gran potencial de desinformación y fraude.
En enero de 2020, Facebook anunció una prohibición de deepfakes (excepto los que son claramente parodia o sátira), aunque la compañía fue criticada por no ir lo suficientemente lejos para combatir lo que están siendo llamados falsificaciones baratas. En general, se refieren al contenido que se ha alterado con intenciones maliciosas.
Debemos diferenciar los deepfakes de las fakenews o noticias falsas. En estas no se utilizan imágenes ni audios.
Tipos de Deepfakes
Existen dos tipos principales de deepfakes, deepfaces y deepvoices. Vamos a analizar cada uno de ellos.
Deepface
Deepface consiste en crear fotos convincentes pero completamente ficticias desde cero.
La animación de imagen tiene como objetivo generar secuencias de vídeo de modo que la persona en la imagen de origen esté animada de acuerdo con el movimiento de un vídeo. El objetivo es crear vídeos falsificados.
Esta tecnología se encuentra dentro del campo de la visión por ordenador, y los investigadores de IA han estado trabajando para producir vídeos más realistas. Aprovecha el aprendizaje automático para manipular y generar imágenes o vídeos que reemplazan a una persona por otra.
Deepvoice
Deepvoice es la suplantación de la voz de una persona en un audio, haciendo que parezca su voz real.
Hasta hace poco, si le dijéramos esto, pensarían que estábamos locos. Pero con los medios sintéticos impulsados por la inteligencia artificial como los deepfakes en aumento, esto ya está comenzando a suceder.
Tomemos, por ejemplo, el primer delito cibernético impulsado por IA del mundo que se informó a principios de septiembre de 2019. Utilizando la tecnología de síntesis de voz, los ladrones pudieron convencer a un ejecutivo de energía para que pensara que estaba hablando por teléfono con el CEO de su empresa matriz, engañándolo para que transfiriera más de 250,000 dólares a su cuenta.
¿Cómo se elabora un Deepfake?
Los investigadores universitarios y los estudios de efectos especiales han empujado los límites de lo que es posible con la manipulación de vídeo e imagen.
Pero los deepfakes nacieron en 2017 cuando un usuario de Reddit del mismo nombre publicó vídeos porno falsos en el sitio. Los vídeos intercambiaron los rostros de celebridades (Gal Gadot, Taylor Swift, Scarlett Johansson y otros) por artistas porno.
Hacer un vídeo de intercambio de caras es bastante sencillo. Además, existen deepfakes programs.
Primero, ejecuta miles de tomas faciales de las dos personas a través de un algoritmo de IA llamado codificador. El codificador encuentra y aprende similitudes entre las dos caras y las reduce a sus características comunes compartidas, comprimiendo las imágenes en el proceso.
Luego se enseña un segundo algoritmo de IA llamado decodificador para recuperar las caras de las imágenes comprimidas. Debido a que las caras son diferentes, entrena un decodificador para recuperar la cara de la primera persona y otro decodificador para recuperar la cara de la segunda persona.
Para realizar el intercambio de caras, simplemente introduce imágenes codificadas en el decodificador “incorrecto”. Por ejemplo, una imagen comprimida de la cara de la persona A se alimenta al decodificador capacitado en la persona B. El decodificador luego reconstruye la cara de la persona B con las expresiones y la orientación de la cara A para un video convincente.
Otra forma de hacer deepfakes utiliza lo que se llama una red de confrontación generativa, o Gan.
Un Gan enfrenta dos algoritmos de inteligencia artificial uno contra el otro. El primer algoritmo, conocido como generador, recibe ruido aleatorio y lo convierte en una imagen. Esta imagen sintética se agrega a una secuencia de imágenes reales, de celebridades, digamos, que se introducen en el segundo algoritmo, conocido como discriminador.
Al principio, las imágenes sintéticas no se verán como caras. Pero si repites el proceso innumerables veces, con comentarios sobre el rendimiento, el discriminador y el generador mejoran. Dados suficientes ciclos y comentarios, el generador comenzará a producir rostros completamente realistas de celebridades completamente inexistentes.
¿Por qué son una amenaza?
El impacto más insidioso de los deepfakes, junto con otros medios sintéticos y noticias falsas, es crear una sociedad de confianza cero, donde la gente no pueda, o ya no se moleste en distinguir la verdad de la falsedad. Y cuando se erosiona la confianza, es más fácil generar dudas sobre eventos específicos.
A medida que la tecnología se vuelve más accesible, los deepfakes podrían significar problemas para los tribunales, particularmente en las batallas por la custodia de los niños y los tribunales de empleo, donde los eventos falsos podrían ingresarse como evidencia.
Pero también plantean un riesgo de seguridad personal: las falsificaciones profundas pueden imitar datos biométricos y potencialmente pueden engañar a los sistemas que dependen del reconocimiento de rostro, voz o venas. El potencial de estafas es claro.
Llama a alguien que no conoces y es poco probable que transfiera dinero a una cuenta bancaria desconocida. Pero, ¿qué pasa si tu “madre” o “hermana” configura una videollamada en WhatsApp y hace la misma solicitud?
Los deepfakes son una gran amenaza para nuestra sociedad, sistema político y negocios porque:
- presionan a los periodistas que luchan por filtrar las noticias reales de las falsas,
- amenazan la seguridad nacional al difundir propaganda e interferir en las elecciones,
- obstaculizan la confianza de los ciudadanos hacia la información por las autoridades, y
- plantean problemas de ciberseguridad para personas y organizaciones.
Cómo detectar los Deepfakes
Los deepfakes son difíciles de detectar para los ojos no entrenados porque pueden ser bastante realistas. Ya sea que se utilicen como armas personales de venganza, para manipular los mercados financieros o para desestabilizar las relaciones internacionales, los vídeos que muestran a las personas que hacen y dicen cosas que nunca hicieron o dijeron son una amenaza fundamental para la idea de que “ver para creer”.
La mayoría de los deepfakes se hacen mostrando al algoritmo informático muchas imágenes de una persona y luego haciendo que use lo que vio para generar nuevas imágenes faciales. Al mismo tiempo, su voz se sintetiza, por lo que parece y suena como si la persona hubiera dicho algo nuevo.
Existen varios trabajos para detectar los vídeos o audios falsos. Podemos detectarlos mediante una serie de sistemas.
Encontrar fallos
Pueden detectarse los deepfakes con fallos que los falsificadores no pueden solucionar fácilmente.
Cuando un algoritmo de síntesis de vídeo falso genera nuevas expresiones faciales, las nuevas imágenes no siempre coinciden con el posicionamiento exacto de la cabeza de la persona, o las condiciones de iluminación, o la distancia a la cámara.
Para hacer que las caras falsas se mezclen con el entorno, deben ser transformadas geométricamente: giradas, redimensionadas o distorsionadas. Este proceso deja artefactos digitales en la imagen resultante.
Es posible que hayas notado algunos artefactos de transformaciones particularmente graves. Esto puede hacer que una foto se vea alterada, como bordes borrosos y piel artificialmente lisa. Las transformaciones más sutiles aún dejan evidencia, y se puede enseñar un algoritmo para detectarlo, incluso cuando las personas no pueden ver las diferencias.
Parpadeo
Una forma de detectar los deepfakes es fijándonos en las veces que parpadea la persona. Todos parpadeamos una vez cada tres o seis segundos y cada parpadeo dura unas tres décimas de segundo.
Cuando estamos ante un vídeo falso, la persona parpadea menos veces que si fuera real ya que el algoritmo a través del que está realizada esa falsificación no puede parpadear a la misma velocidad que un humano.
Cuello y cara
Los deepfakes son principalmentes sustituciones de caras ya que sustituir un cuerpo es mucho más complicado. Por eso, debemos fijarnos en el cuerpo de la persona a la que se le ha sustituido la cara y, si las características de ese cuerpo no coinciden con las del de la persona real, estamos ante una falsificación.
Duración corta
Casi todos los deepfakes compartidos duran muy pocos segundos ya que el proceso de aprendizaje para realizar falsificaciones lleva mucho trabajo. Por eso, si vemos un vídeo demasiado corto con un contenido difícil de creer, podemos pensar que estamos ante un deepfake.
Origen de la grabación
A la hora de detectar un deepfake, también nos ayuda encontrar al primero que compartió ese vídeo. De esa forma podremos verificar el contexto en el que se produjo esa publicación y si el material de origen tenía más detalles.
Sonido
Muchas veces, el algoritmo que modifica la grabación no ajusta el sonido. Podemos darnos cuenta de que estamos ante una falsificación cuando el sonido no coincide con la imagen porque no exista una correcta sincronización con el movimiento de los labios.
Detalles
También es importante estar al tanto de los detalles de la grabación. Si reproducimos el vídeo a velocidad más reducida, nos daremos cuenta de modificaciones repentinas de la imagen o cambios en el fondo de una persona que demostrarán que se trata de una falsificación.
Interior de la boca
Los algoritmos de aprendizaje automático son incapaces aún de copiar exactamente la lengua, los dientes o el interior de la boca al hablar. Es importante fijarse en los detalles, un diminuto desenfoque en el interior de la boca puede demostrar que esa grabación es falsa.
Consejos para protegerse de los vídeos falsificados
Existen cuatro formas de combatir los deepfakes que analizamos a continuación.
Legislación y regulación
La legislación y la regulación son medios obvios contra los deepfakes. En la actualidad, las leyes civiles o penales no abordan específicamente los deepfakes, aunque los expertos legales han sugerido adaptar las leyes actuales para cubrir difamación, fraude de identidad o suplantar a un funcionario del gobierno que utiliza falsificaciones profundas.
La creciente sofisticación de las tecnologías de IA exige nuevos tipos de leyes y marcos regulatorios. Por ejemplo, los deepfakes plantean preocupaciones sobre la privacidad y los derechos de autor, ya que las representaciones visuales de las personas en los vídeos de deepfake no son copias exactas de ningún material existente, sino más bien nuevas representaciones generadas por AI.
Los reguladores deben navegar un panorama legal difícil en torno a las leyes de libertad de expresión y propiedad para regular adecuadamente el uso de la tecnología deepfake.
Por otro lado, una solución legal adecuada para la proliferación de deepfakes nocivos no sería una prohibición total de la tecnología, lo que sería poco ético. Si bien se pueden introducir nuevas leyes para evitar deepfakes, también necesitan mecanismos de aplicación.
Las empresas de redes sociales de hoy en día disfrutan de una amplia inmunidad para el contenido que los usuarios publican en sus plataformas. Una opción legislativa podría ser hacer retroceder la inmunidad legal de las empresas de redes sociales contra el contenido que publican sus usuarios, lo que hace que no solo los usuarios sino también las plataformas sean más responsables del material publicado.
Políticas corporativas y acción voluntaria
Las políticas corporativas y la acción voluntaria pueden proporcionar herramientas más efectivas contra los deepfakes.
Por ejemplo, los políticos pueden comprometerse a no utilizar tácticas ilícitas de campaña digital o difundir desinformación como deepfakes en sus campañas electorales.
Si bien pocas empresas de redes sociales tienen políticas aún sobre deepfakes, deberían colaborar para evitar que sus plataformas sean usadas para la desinformación y, por lo tanto, aplicar proactivamente políticas transparentes y compartidas para bloquear y eliminar los deepfakes.
Actualmente, muchas empresas no eliminan el contenido en disputa, sino que lo reducen para que sea más difícil de encontrar, al ser menos prominente en las noticias de los usuarios.
Por otro lado, el aumento en el discurso de odio, las noticias falsas y la desinformación de las plataformas digitales contaminantes ha llevado a algunas empresas a tomar más medidas, como suspender las cuentas de los usuarios e invertir en tecnología de detección más rápida.
Reddit y Pornhub han prohibido el porno falso y otras pornografías no consensuadas, y actúan cuando los usuarios señalan dicho material. Facebook corta cualquier contenido identificado como falso o engañoso por verificadores de hechos de terceros que publican anuncios y ganan dinero; La compañía trabaja con más de 50 organizaciones de verificación de hechos, académicos, expertos y formuladores de políticas para encontrar nuevas soluciones. Los algoritmos de Instagram no recomendarán a las personas que vean contenido marcado como “falso” por los verificadores de hechos.
Educación y capacitación
La educación y la capacitación son cruciales para combatir los deepfakes. A pesar de la considerable cobertura de noticias y las inquietudes presentadas por las autoridades, la amenaza de deepfakes aún no ha sido considerada por el público.
En general, existe la necesidad de aumentar la conciencia pública sobre el potencial de mal uso de la IA. Mientras que los deepfakes proporcionan a los ciberdelincuentes nuevas herramientas para la ingeniería social, las empresas y organizaciones deben estar en alerta máxima y establecer planes de ciber-resiliencia.
Los gobiernos, los reguladores y las personas deben comprender que el vídeo, a diferencia de las apariencias, puede no proporcionar una representación precisa de lo que sucedió, y saber qué pistas perceptivas pueden ayudar a identificar deepfakes.
Estas habilidades también deberían promoverse entre la población mayor y menos conocedora de la tecnología. La razón de esto es que las personas necesitan poder evaluar críticamente la autenticidad y el contexto social de un vídeo que desean consumir, así como la confiabilidad de su fuente, para comprender la verdadera intención del vídeo.
Además, las personas deben comprender que a medida que se desarrolle la tecnología, se necesitarán menos fotografías de caras reales para crear falsificaciones profundas y que nadie es inmune. Cualquiera que publique una sola foto o un vídeo que capture 30 cuadros por segundo en un sitio de redes sociales corre el riesgo de ser falsificado.
Las empresas, los gobiernos y las autoridades que utilizan tecnología de reconocimiento facial y almacenan grandes cantidades de datos faciales con fines de seguridad y verificación, deben abordar la amenaza del robo de identidad en caso de que se filtren dichos datos.
Tecnología anti-deepfake
La tecnología anti-deepfake proporciona quizás el conjunto más variado de herramientas para:
- detectar deepfakes,
- autenticar contenido y
- evitar que el contenido se use para producir deepfakes.
En general, los problemas de la tecnología para autenticar el contenido e identificar falsificaciones lo están haciendo a escala, y el hecho de que hay muchos más recursos de investigación disponibles y personas que trabajan en el desarrollo de tecnología para crear deepfakes que en la tecnología para detectarlos.
Por ejemplo, los usuarios cargan 500 horas de contenido por minuto en YouTube. Twitter lucha con 8 millones de cuentas a la semana que intentan difundir contenido a través de tácticas manipuladoras. Esto crea enormes desafíos para que las tecnologías revisen todo el material publicado en poco tiempo.
Los desarrolladores de deepfake tienden a usar los resultados de la investigación de deepfake publicada para mejorar su tecnología y sortear nuevos sistemas de detección.
Por ejemplo, los investigadores descubrieron que los primeros métodos de deepfake no podían imitar la velocidad a la que una persona parpadea; mientras que los programas recientes han solucionado la falta de parpadeo o parpadeo no natural después de que se publicaron los hallazgos.
Si bien la financiación para el desarrollo de la detección de deepfakes proviene principalmente de agencias de seguridad nacional, existen oportunidades comerciales significativas para que las compañías privadas de ciberseguridad produzcan software para la detección de deepfakes, construyan plataformas confiables, eliminen bots ilícitos y luchen contra el fraude y la contaminación digital.
Sin embargo, el desarrollo de la tecnología anti-deepfake por sí solo no es suficiente. Las organizaciones también deben adoptar estas tecnologías; Por ejemplo, el gobierno de cualquier país puede modernizarse para enfrentar y ayudar a proteger a sus ciudadanos contra los deepfakes.
Ninguna de las soluciones tecnológicas puede eliminar por completo el riesgo de deepfakes, y el solucionismo tecnológico puede incluso desorientar la discusión de preguntas más existenciales sobre por qué existen deepfakes y qué otras amenazas puede imponer AI.
Por lo tanto, las formas más eficientes para combatir la propagación de las falsificaciones profundas implican una combinación de avances legales, educativos y sociotécnicos.
Ejemplos de Deepfakes
La mayoría de los fanáticos de hoy en las plataformas sociales como YouTube o Facebook pueden verse como una diversión inofensiva o obras artísticas que utilizan figuras públicas vivas o muertas. Pero también hay ejemplos del lado oscuro de los deepfakes, a saber, el porno de celebridades y venganza, así como los intentos de influencia política y no política.
Muchos deepfakes se centran en celebridades, políticos y líderes corporativos porque Internet está repleto de fotos y vídeos de ellos para construir las grandes reservas de imágenes necesarias para entrenar un sistema de inteligencia artificial. La mayoría de tales deepfakes son bromas y memes divertidos con efecto cómico o satírico.
Un deepfake podría mostrar, por ejemplo, a Nicolas Cage actuando en películas en las que nunca ha protagonizado, como Indiana Jones o Terminator 2.
Algunos ejemplos interesantes de deepfakes incluyen un vídeo que reemplaza a Alden Ehrenreich con el joven Harrison Ford en clips tomados de Solo: A Star Wars Story, y un vídeo del actor Bill Hader apareciendo en Late Night con David Letterman. Mientras Hader habla de Tom Cruise, su rostro se transforma en el de Cruise.
Un museo de arte en los EE. UU. ha utilizado la tecnología para dar vida a Salvador Dalí para saludar a los visitantes, y otro sistema de IA hace que cualquiera baile como una bailarina imponiendo los movimientos de una bailarina real en el cuerpo de una persona objetivo, generando así vídeo que muestra al objetivo como bailarín profesional.
Sin embargo, también están apareciendo ejemplos de deepfakes nocivos. La tecnología Deepfake permite el porno de celebridades y venganza, es decir, pornografía involuntaria utilizando imágenes de celebridades, que se comparten en las redes sociales sin su consentimiento.
Por lo tanto, celebridades como Scarlett Johansson han aparecido en películas porno, en las que sus rostros se han superpuesto sobre los rostros de las estrellas porno.
En la escena política, un deepfake de 2018 creado por el cineasta de Hollywood Jordan Peele presentó al ex presidente estadounidense Obama discutiendo los peligros de las noticias falsas y burlándose del actual presidente Trump. En un vídeo falso de 2018, Donald Trump ofreció consejos a la gente de Bélgica sobre el cambio climático. El video fue creado por un partido político belga “sp.a” con el fin de atraer a la gente a firmar una petición en línea pidiendo al gobierno belga que tome medidas climáticas más urgentes.
En España, el deepfake más famoso es la parodia El equipo E, en el que se utilizan las caras de los principales líderes políticos del país para hacerlos pasar por los protagonistas de la serie televisiva de los años ochenta El equipo A.
Otros deepfakes pueden tener un impacto más duradero. En Malasia, un clip viral de la confesión de un hombre de tener relaciones sexuales con un ministro del gabinete local causó controversia política.
También se han utilizado individuos no políticos para crear deepfakes. En junio de 2019, un deepfake de alta calidad de dos artistas británicos con el CEO de Facebook, Mark Zuckerberg, acumuló millones de visitas. El vídeo retrata falsamente a Zuckerberg respetando a Spectre, una organización ficticia del mal de la serie James Bond que le enseña cómo tomar el control total de miles de millones de datos confidenciales de las personas, y así poseer su futuro. El vídeo tenía la intención de mostrar cómo se puede usar la tecnología para manipular datos.