Poner tu cara en un GIF que te gusta o convertirte en protagonista de tu película favorita es posible gracias a la inteligencia artificial. Muchos son los usos para el ocio y el entretenimiento que se han obtenido de los llamados “deepfakes”, muchas risas quizá, también muchos desconciertos.

El uso aparentemente inocente de sus orígenes se ha ido alterando, uniéndose a la espiral de desinformación y noticias falsas actual. Así, los deepfakes, esos vídeos creados o modificados hasta el punto de parecer reales, han traído consigo un sinnúmero de problemas, llegando a afectar al ámbito político, empresarial, e incluso personal y privado. Y si no que se lo digan a las miles de mujeres que sufrieron el pasado año los efectos de un bot de Telegram que transformaba fotos suyas en desnudos con tecnología deepfake.

Las compañías no logran tampoco escapar de sus efectos. Los deepfakes se consideran, como te contábamos aquí, una de las tendencias que más preocuparán a las empresas este año, pues la ciberdelincuencia no pierde la ocasión de subirse al carro de los últimos avances. Hacerse pasar por altos cargos para lograr sus fines es una de sus especialidades, y los deepfakes abren, por desgracia, otra vía de la que debemos estar prevenidos.

Famosos, políticos, instituciones, gente de a pie normal y corriente… la maldad no hace distinciones. Para colmo, generar estos vídeos manipulados es tan fácil como descargarse una de tantas aplicaciones al alcance de cualquiera. La buena noticia es que existen pautas que nos pueden ayudar a filtrar lo que nos llega.

fakenews

¿Sabes cómo detectar un deepfake?

Estar alerta debería ser, para empezar, nuestra actitud habitual. No es para menos, pues las informaciones falsas apelan a las emociones para hacerse virales y gozan de un 70% más de probabilidades de ser compartidas que una verdadera. Asume la costumbre de contrastar con varias fuentes utilizando tu buscador de confianza, así como éstas otras recomendaciones de la BBC.

En el caso de los deepfakes podemos fijarnos, entre otras cosas, en:

  • El parpadeo (si parpadea poco es un deepfake).

  • Si la cara, el cuello y la expresión facial encajan con el cuerpo y su postura.

  • Si las grabaciones son demasiado cortas (los deepfakes a menudo solo duran unos segundos).

  • O si el interior de la boca tiene cierto desenfoque.

A pesar de todo el cuidado que podamos adoptar como usuarios, son las grandes plataformas las que realmente pueden revertir esta tendencia preocupante. Microsoft, por ejemplo, decidió aportar su granito de arena para evitar la proliferación de deepfakes durante la campaña electoral de EE.UU. La herramienta se llama Microsoft Video Authenticator y es capaz de comprobar la veracidad de vídeos y fotografías, aunque su precisión aún tiene un amplio margen de mejora.

Facebook también decidió, hace ya cosa de un año, tomar cartas en el asunto. La plataforma elimina vídeos manipulados que busquen hacer creer lo que se vea o diga en ellos, y ha desarrollado un programa llamado “Deep Fake Detection Challenge” en el que han participado más de 2.000 personas y que en verano tenía una eficacia del 65%. Google tampoco se ha quedado atrás y ha creado la herramienta “Assembler” para ayudar a los periodistas a verificar imágenes.

Muchos son los proyectos impulsados. No obstante, la realidad nos dice que de momento no son suficientes. Desconfiar y contrastar son, pues, las principales aliadas para no caer en las trampas que invaden la red.

deepfake

Deepfakes para buenos fines

Afortunadamente no todas las prácticas deepfake son necesariamente malas. A los usos en clave de humor que comentábamos al principio, se unen otros como la ocultación de identidades que de ser públicas pondrían en riesgo las vidas de dichas personas.

Es el caso de un documental que se produjo en junio sobre la persecución de personas LGTBI en Chechenia. Los activistas que luchan contra esa lacra fueron los protagonistas de la película, aunque en lugar de sus caras se emplearon rostros de activistas de otros lugares. Éste y otros ejemplos se cuentan en un artículo de MIT Technology Review, en el que se evidencia que no todos los fakes han de llevar asignada una connotación negativa.

En la misma línea reivindicativa, unos padres estadounidenses promovieron la creación de un vídeo en el que su hijo, fallecido en el tiroteo producido en su colegio en 2018, pide que se vote a políticos a quienes les importe la vida de las personas y no el lobby de las armas. El resultado, una secuencia de imágenes que dura dos minutos, fue posible con estas técnicas de inteligencia artificial. Y es que la tecnología no es mala, todo depende de las manos en las que caiga.

Deja un comentario

Por favor, introduce tu comentario
Por favor, introduce tu nombre