Es muy probable que tú, querido lector, hayas escuchado hablar acerca de la inteligencia artificial y sus innumerables aplicaciones beneficiosas. Es cierto, es una herramienta muy útil, capaz de simplificar tareas administrativas tediosas, automatizando procesos a golpe de clic.
Pero también hay que mantener en nuestra órbita de razonamiento que estas aplicaciones pueden ser utilizadas para llevar a cabo “tareas” no tan éticas. Precisamente, una de esas utilidades cuestionables es sobre la que vengo a escribiros: las deepfakes.
Las deepfakes, o en castellano, ultrafalsificaciones, son contenidos de sonido, imagen o vídeo manipulado o sintético que puede inducir erróneamente a pensar que es auténtico o verídico, y que muestra representaciones de personas que parecen decir o hacer cosas que no han dicho ni hecho. Importante destacar que, para generar dichos contenidos, son necesarios archivos similares reales de la persona objetivo para alimentar al sistema, un motivo más para potenciar nuestra privacidad en las redes.
Hay que incidir en que por sí misma, esta tecnología no implica connotaciones negativas ya que puede utilizarse con finalidades legítimas.
Si bien, herramientas y técnicas para manipular estos contenidos existen desde hace años, el uso de aplicaciones de inteligencia artificial hace posible que cualquier persona pueda manipular audios, vídeos, etc. con unos resultados de calidad suficiente como para engañar al común de los mortales.
Y es que la manipulación de representaciones audiovisuales es uno de los métodos de ingeniería social más potente que puede condicionar la realidad social.
Ya sea a nivel societario, mediante la introducción de una fake new que pueda desestabilizar a todo un Estado. O bien a través de la generación de un contenido dirigido a manipular a un individuo o grupo de individuos concretos.
En este punto podríamos plantear ¿en qué me afecta a mi este fenómeno?
Es probable que hayas consumido un contenido generado por técnicas deep fake sin que hayas reparado en esta posibilidad.
Por ejemplo, en el cine, una de las técnicas que se utilizan para “revivir” a actores y actrices ya fallecidas (o rejuvenecer el aspecto de los mismos), como fue el caso de Carrie Fisher en una de las últimas películas de la saga de La guerra de las galaxias.
Otro ejemplo que puede que hayas visionado es el anuncio “Con mucho acento” de una conocida marca de cervezas, en el que aparece la difunta Lola Flores. Sí, ese anuncio está realizado gracias a esta tecnología…
Esto, para la industria de la producción audiovisual es una noticia grandísima, pues las posibilidades de generación de contenidos han crecido enormemente.
Pero, debemos pararnos y reflexionar sobre esta tecnología…
Actualmente, cualquier persona con acceso a Internet y con un mínimo grado de interés en el tema, podría ser capaz de realizar una ultrafalsificación de cualquier cosa. Existen librerías digitales donde se explica técnicamente como realizar deepfakes e incluso software libre para crear este tipo de contenido.
Detrás de estas librerías, está una auténtica comunidad de expertos en ciencias de la computación, perfeccionando día a día las técnicas de generación de contenido sintético. Este conocimiento, al ser libre es aprovechado por ciberdelincuentes para realizar estafas y otros delitos.
Esto se traduce en que cada día es más común toparse con noticias sobre estafas virtuales, desde las más ilógicas, a priori, como es el caso de la estafa a una mujer granadina, por un monto de unos 170.000 €1, gracias a la utilización de un deepfake de Brad Pitt, estafas más elaboradas como la denominada “estafa del CEO2” y sus variantes, en las que se clona la voz de una persona, para lograr que se ejecute una acción en beneficio de los ciberdelincuentes, como podría ser la autorización de una operación bancaria3.
Existen distintas técnicas para detectar las ultrafalsificaciones, incluso software específico realizado para esta función. En el nivel de un usuario medio, podemos fijarnos en el contorno de la cara, las sombras, parpadeos, el tono de la voz, el brillo de los ojos, la coherencia de las frases, etc.
Por todo ello, al recibir un contenido digital, en su vertiente de audio, video o audiovisual de una persona conocida o con la que debas realizar algún tipo de gestión que implique un movimiento patrimonial ten en cuenta esta posibilidad y no dejes que te engañen.