No, esa del vídeo porno no soy yo

Cualquiera puede aparecer en vídeos sexuales falsos, creados para facturar dinero... o como coacción. De hecho, el 96% de los 'deepfakes' son de este tipo

Lunes, 27 de marzo 2023

Ahora mismo, mientras leemos este reportaje, puede ser que alguien, en algún lugar del mundo, esté viendo unas imágenes supuestamente nuestras, en las que aparecemos en medio de una orgía, en una escena porno realmente escabrosa... Y ese material no será visto solo por ese ' ... alguien', sino que, al estar a disposición de cualquiera, acabará acumulando miles de visualizaciones...

Publicidad

¿Cómo puede ser que aparezca nuestra cara en esas piezas? La inteligencia artificial (IA) ha hecho posible que se puedan crear estos vídeos falsos e hiperrealistas, conocidos como 'deepfakes', donde se puede combinar el rostro de cualquiera con el cuerpo de actores o actrices porno. Muchas veces estas creaciones quedan algo chapuceras, pero otras están tan bien hechas que solo un ojo muy experto (o tecnologías creadas expresamente con esta finalidad) puede detectar que no son reales. «Según algunos estudios, el 96% de los 'deepfakes' que se crean son pornográficos», alerta Nadia McGowan, doctora en Comunicación Audiovisual y docente de la Universidad Internacional de La Rioja (UNIR), aunque también tienen otros usos no sexuales, claro: en el cine (para 'resucitar' actores, por ejemplo), en publicidad, memes... auqnue en estos campos no resultan, de momento, demasiado controvertidos.

Eso sí, tal y como explica la experta, el fenómeno del 'deepfake' comenzó hace cinco años ligado al 'porno' y, desde entonces, ha crecido como la espumasobre todo en este terreno. De hecho, se estima que la cantidad de estos vídeos que circulan por la red se duplica cada seis meses y, según las investigaciones realizadas al respecto, nueve de cada diez tienen a mujeres como víctimas. «Ahora mismo, cualquiera con unos pocos conocimientos y un ordenador algo preparado puede crear este tipo de contenidos», alerta McGowan.

Vacío legal

Al principio, detalla, no era así: este era un terreno por donde solo se movían los expertos en nuevas tecnologías. De hecho fue un informático, desde su casa, quien 'inventó' esta locura, superponiendo la cara de actrices famosas (Daisy Ridley fue la primera y la segunda, Gal Gadot) a escenas 'porno' bajo el nombre de 'deepfakes' (que ha bautizado al fenómeno de estos vídeos falsos).

Publicidad

«No eran de buena calidad, pero crearon escuela y ahora ya los hay muy convincentes», destaca la especialista. Tal y como explica, es tan sencillo como coger un vídeo porno «de la cantidad ingente que hay en Internet», entrenar un sistema con inteligencia artificial, alimentarlo con fotos de la persona real cuya cara queremos que aparezca... ¡y listo! Demasiado fácil para nada bueno. Porque ¿para qué se utilizan este tipo de 'deepfakes'? Para usos pornográficos casi exclusivamente; es decir, son un negocio, ya que generan decenas de miles de visualizaciones. Como se trata de algo no consentido, es muy comprometedor y doloroso convertirse en protagonista de una de estas piezas hiperrealistas. Pero hay un uso aún más repulsivo: hay quien crea y difunde este tipo de vídeos para coaccionar a las mujeres o como venganza. «Es un problema de violencia machista», recuerdan desde el Instituto Tecnológico de Massachusetts (MIT). Y especialmente sibilina por muchos motivos. Y hay algo que los hace especialmente terribles: que poca gente se cuestiona su autenticidad: hay estudios que estiman que un 80% de la población ignora que se puede alterar de este modo la realidad.

Uno de ellos es que puede que la víctima no se entere de la existencia de esas imágenes: muchos podrán pensar que mejor así, pero no, porque, al no estar sobre aviso, pueden extenderse más -ya que no intentamos cortar su expansión- y, además, «es terrible la manera en que te pueden perseguir esas imágenes, por ejemplo si estás buscando trabajo y llegan a mal sitio».

Publicidad

El otro motivo es que ahora mismo existe un enorme vacío legal, con lo que las víctimas lo tienen muy complicado: «Es difícil que sean eliminados estos vídeos, pasa con todo lo relacionado con las imágenes 'online'. Habría que identificar quién las ha creado, ir caso por caso... Y para entonces ese material ya se habría replicado un montón de veces», ahonda McGowan.

No obstante, sí se están dando los primeros pasos para legislar esta cuestión tan espinosa. «El permiso previo (del que pone la cara y del que pone el cuerpo) aún no está implementado, pero el camino iría por ahí», apunta McGowan. Según indica, en EE UU el miedo a que se use esta tecnología para fines políticos (Trump o Zelensky, por ejemplo, con discursos o actitudes falsas) está marcando las prisas a la hora de crear una normativa. «Mucho más que el hecho de que la reputación de las mujeres quede dañada», censura.

Publicidad

¿Cómo se puede distinguir un 'deepfake'?

La tecnología para crear 'deepfakes' va muy rápido («dos pasos por delante de la ley y de los sistemas de detección», dicen los expertos). Aunque algunos están realmente bien hechos -cada vez es más fácil-, muchos de ellos son algo rudimentarios (dada la finalidad sexual que tienen, tampoco se toman muchas molestias; en las 'venganzas' ponen más mimo). «A veces es difícil de ver, pero hay pistas que nos pueden ayudar a identificar uno de estos 'deepfakes'. Normalmente, los rostros pierden cohesión y aparecen dobles cejas, barbillas u orejas», apunta McGowan. Esto es porque los patrones de fotos y vídeo no coinciden bien. «El parpadeo es otra pista. Normalmente en las fotos salimos con los ojos abiertos», señala, Y, claro, en el vídeo no se nos va a ver pestañear. ¿Más cosas? Sí, «el color de piel, a menudo el del cuerpo y el de la cara que se le coloca no coinciden (unos son más o menos morenos...). Tengamos en cuenta que este tipo de vídeos se hacen rápido para facturar dinero», recuerda. Errores en la iluminación (sombras extrañas), bordes extraños en la boca o nariz... son los chivatos del 'deepfake'.

Este contenido es exclusivo para suscriptores

3 meses por solo 1€/mes

Publicidad