Un Deepfake es un vídeo, imagen o sonido que contiene (en su totalidad o en parte) elementos que no son reales, pero que pretenden serlo y que están generados por Inteligencia Artificial.
Un Deepfake se hace con el objetivo de imitar desde la voz de una persona hasta su imagen, pasando por otro tipo de seres vivos u objetos. Y un Deepfake bien hecho puede provocar que la persona que lo está viendo crea que es real. Aunque las personas no son solo las que caen en la trampa, pues también pueden confundir a algoritmos.
En español lo podemos traducir como falsificaciones profundas y no consiste en editar fotografías, vídeos o sonido, sino en crearlas.
La edición de vídeo, imagen o sonido no es nada nuevo. Sin embargo, hacerlo y que quedase creíble solo estaba al alcance de profesionales y, en algunos casos, podía resultar muy caro.
Pero ahora eso ha cambiado. La tecnología con la que se puede llevar a cabo el Deepfake es más accesible y una persona desde el sofá de su casa puede hacer uno. Y no solo eso, la credibilidad que pueden tener estas falsificaciones a día de hoy es mucho mayor que las ediciones de hace años, siendo más difícil de detectar si son reales o no.
A nivel un poco más técnico, podríamos decir que el Deepfake se genera utilizando tecnología de deep learning y una gran cantidad de datos reales para entrenarla. Cuantos más datos tengamos mejor y más creíble será el resultado. Por ejemplo, cuantas más imágenes y vídeos se tengan de una persona mejores falsificaciones se van a crear.
A día de hoy, existen diversas herramientas y plataformas para crear este tipo de falsificaciones, pero para que tengan calidad es necesario utilizar equipos con potentes procesadores gráficos.
Como todo, este tipo de falsificación no es de por sí algo bueno o malo, todo depende de la intención con la que se utilice.
Esta tecnología puede ser tremendamente útil para el campo de la ciencia, la investigación criminal o el ocio como es el caso del cine. Pero también se puede utilizar y, de hecho, se ha utilizado para generar noticias falsas (las famosas fake news) o para realizar estafas online.
Un Deepfake bien hecho puede ser muy difícil de identificar. Sin embargo, cuando vemos un vídeo, imagen o sonido hay algunos detalles en los que nos podemos fijar para acertar con más probabilidad:
El interior de la boca suele estar desenfocado, pues al igual que ocurre con las manos la IA todavía no ha conseguido reproducir bien esas partes de las personas.
La voz de la persona es muy lineal u homogénea y con falta de personalidad.
Las personas suelen parpadear más o menos de lo habitual.
Los vídeos hechos con esta tecnología suelen mostrar solo a las personas de cintura para arriba, pues todavía no se ha conseguido tanta precisión al intentar replicar la totalidad del cuerpo, sobre todo en los vídeos.
Independientemente de lo anterior, es muy probable que cuando veamos una falsificación de estas (sin saberlo) notemos algo extraño que puede que no sepamos expresar qué es, sobre todo si es de personas. Y es que, como seres humanos, podemos identificar muy bien a nuestros semejantes y notar cuándo algo no va bien, incluso en pequeños detalles.
Es muy común que veamos una mayor cantidad de falsificaciones de famosos, no solo porque interesen más al público, sino porque al tener más imágenes de ellos la IA puede dar mejores resultados.
En este caso del actor Morgan Freeman, aunque su voz sí sea la de una persona que imita la del actor, el vídeo no lo es. ¿Habrías caído en la trampa?
Este es uno de los mayores peligros de esta tecnología y el ámbito que más se puede ver afectado por esta, pudiendo llegar incluso a desestabilizar países y cambiar gobiernos.