El mayor riesgo de los ‘deepfakes’ es que dudemos de todo lo que vemos

Las ultrafalsificaciones no solo pueden hacernos creer que algo falso es real. Varios expertos advierten que la tecnología podría convertirse en una arma para que los poderosos puedan negar cualquier prueba que demuestre su corrupción y sus abusos de poder, y piden más alfabetización mediática.


Ms. Tech

A finales de 2018, los ciudadanos de Gabón llevaban meses sin ver en público a su presidente, Ali Bongo. Algunos empezaban a sospechar que estaba enfermo, o incluso muerto, y que el Gobierno lo estaba encubriendo. Para frenar la especulación, el Gobierno anunció que Bongo había sufrido un derrame cerebral pero que seguía con buena salud. Poco después, se emitió un vídeo suyo en el que pronunció su habitual discurso de Año Nuevo.

Pero en vez de calmar las tensiones, el vídeo provocó el efecto contrario. Muchas personas opinaban que la imagen del vídeo del presidente no se parecía a la real e inmediatamente sospecharon que se trataba de una ultrafalsificación (o deepfake), es decir, un contenido falso increíblemente realista creado con inteligencia artificial (IA). Las sospechas de que el Gobierno estaba ocultando algo empezaron a crecer. Una semana después, el ejército intentó (sin éxito) un golpe militar, citando el vídeo entre sus argumentos.

El análisis forense posterior no encontró alteraciones ni manipulación en ese vídeo, pero no importó demasiado. La mera posibilidad de que fuera un deepfake había sido suficiente para acelerar el fin de una situación que ya era precaria.

En el período previo a las elecciones presidenciales de 2020 en EE. UU., los deepfakes cada vez más convincentes han generado temores sobre cómo esos contenidos falsos podrían influir en la opinión política. Pero un nuevo informe de Deeptrace Labs, una compañía de ciberseguridad especializada en detección de utrafalsificaciones, no encontró ejemplos en los que los deepfakes se hayan utilizado en campañas de desinformación. Lo que generaba el mayor temor era saber que podrían usarse de esa manera.

“Los deepfakes sí representan una amenaza para la política, pero en este momento la amenaza más tangible es el hecho de acusar a los deepfakes para hacer que lo real parezca falso“, opina uno de los autores del informe Henry Ajder. “La exageración y la cobertura sensacionalista que especula sobre el impacto político de los deepfakes ha eclipsado los casos reales en los que la tecnología ha tenido un verdadero efecto”.

Las evidencias ya no sirven como prueba

Desde que aparecieron los deepfakes, los activistas de derechos humanos y expertos en desinformación han dado la voz de alarma sobre estas amenazas separadas pero entrelazadas. En los últimos dos años, las empresas tecnológicas y los responsables políticos de EE. UU. se han centrado casi exclusivamente en el primer problema mencionado por Ajder: la facilidad con la que la tecnología puede hacer que las cosas falsas parezcan reales. Pero el segundo problema es el que más preocupa a los expertos. Aunque los límites para crear deepfakes están desapareciendo rápidamente, poner en duda la veracidad de algo no requiere ninguna tecnología en absoluto.

“Es otra arma para los poderosos: responder con ‘Es un deepfake’ sobre cualquier cosa que las personas que están fuera del poder intenten usar para mostrar la corrupción”.

El experto en desinformación que ahora dirige la organización sin ánimo de lucro Thoughtful Technology Project, Aviv Ovadya, confirma: “Desde el principio, esa ha sido mi mayor preocupación en este campo”.

Socavar la confianza en los medios puede tener profundas repercusiones, particularmente en los frágiles entornos políticos. El director de programa en la organización sin ánimo de lucro que ayuda a las personas a documentar abusos contra los derechos humanos Witness, Sam Gregory, ofrece un ejemplo. En Brasil, que ha sufrido mucha violencia policial, a los ciudadanos y los activistas empieza a preocuparles la idea de que cualquier vídeo que graben de un oficial matando a un civil ya no sea motivo suficiente para iniciar una investigación. Este temor de que una prueba real pueda ser descartada como falsa se ha convertido, según Gregory, en un tema recurrente en los talleres que organiza en todo el mundo.

“Es una evolución de la afirmación de que algo es una ‘noticia falsa’. Es un arma más para los poderosos. Ahora pueden responder con: ‘Es un deepfake‘, ante cualquier cosa que pueda demostrar corrupción y abusos contra los derechos humanos”, afirma.

Comprobar qué es real y qué es falso

Para resolver estos problemas será necesario comprender ambos tipos de amenazas. Ovadya, señala: “En un nivel alto, queremos que demostrar que algo real es real y que algo falso es falso resulte lo más fácil posible“.

En los últimos meses, muchos grupos de investigación y compañías tecnológicas como Facebook y Google se han dedicado a crear herramientas para descubrir ultrafalsificaciones. Entre ellas destacan las bases de datos para entrenar a los algoritmos de detección y las marcas de agua que pueden integrarse en archivos de fotos digitales para revelar si han sido manipulados. Varias start-ups también han estado trabajando en formas de generar confianza a través de aplicaciones en las que los propios usuarios verifican las fotos y vídeos en cuanto se crean. Esto permite crear una base comparativa para analizar las versiones del contenido que se distribuyen más adelante. Gregory cree que los gigantes tecnológicos deberían introducir ambas formas de control en sus plataformas para que estén ampliamente disponibles.

Pero las compañías tecnológicas también deben contar con un equipo de moderadores de contenido, y los medios de comunicación también deberían formar a sus periodistas y verificadores en detección y comprobación. La presentación de informes sobre el terreno puede confirmar si un vídeo refleja o no la realidad y agregar una capa importante de matices. “Los modelos técnicos no pueden interpretar el contenido de un vídeo falso en contextos culturales ni imaginar cómo podría recontextualizarse”, sostiene la experta en estudios de información Britt Paris, quien recientemente publicó un informe sobre deepfakes.

“Lo que [los creadores de desinformación] realmente quieren no es que cuestionemos más, sino que lo cuestionemos todo”.

Como ejemplo, Paris señala los vídeos alterados de Nancy Pelosi y Jim Acosta que se hicieron virales durante el año pasado. Ambos se consideran “falsificaciones baratas” en lugar de ultrafalsificaciones o deepfakes. Simplemente se alteró su velocidad de reproducción para engañar a los espectadores. “Las técnicas de detección de deepfakes no tenían forma de descubrir estas falsificaciones“, asegura Paris. Fueron los periodistas quienes tuvieron que desacreditarlos, lo que significaba que la gente tenía que confiar en los periodistas.

Todos los expertos coinciden en que el público necesita una mayor alfabetización mediática. “Hay una diferencia entre comprobar que algo real es real y hacer que la sociedad en general crea que lo real es real”, explica Ovadya. En su opinión, las personas deben ser conscientes de que falsificar contenido y poner en duda la veracidad de contenido son tácticas que se pueden usar para sembrar la confusión intencionalmente.

No obstante, Gregory advierte que los consumidores de noticias no se deberían sobrecargar. La mayor parte del trabajo para aclarar lo que es real y lo que es falso antes de que las noticias lleguen al público recae sobre los investigadores, las plataformas y los periodistas.

Para Ovadya, el objetivo final no consiste en generar un escepticismo generalizado sino construir una “infraestructura social, educativa e inoculadora” capaz de neutralizar el impacto de los deepfakes. El experto se pregunta: “¿Qué es lo que deberíamos tratar de evitar? Es bueno cuestionar la evidencia. Pero lo que [los creadores de desinformación] realmente quieren no es que cuestionemos más, sino que lo cuestionemos todo”.

Y concluye: “Eso es justo lo contrario de lo que queremos nosotros”.

MIT