Parecía Jim Carrey reproduciendo a la perfección una de las escenas de Jack Nicholson en El resplandor. El vídeo se propagó por las redes sociales en cuestión de horas. Millones de usuarios lo compartieron convencidos de que se trataba de una imitación impecable. Sin embargo, era un montaje. Un deepfake elaborado por el youtuber Ctrl Shift Face mediante una serie de algoritmos denominados redes generativas antagónicas. Los rasgos faciales de Carrey habían sido superpuestos sobre los de Nicholson y eso era todo. Nada más. Pero nada menos.

A día de hoy, una artimaña así pasaría incluso desapercibida. Nos parecería anticuada, un truco muy visto. La tecnología utilizada para crear estos vídeos ficticios en los que la cara de una persona aparece de forma realista sobre la de otra se extiende a tal velocidad que incluso algunos programas de televisión —como por ejemplo el que presenta el Gran Wyoming— la utilizan con normalidad. Ya nadie se extraña. Hemos aprendido a observar la realidad digital con ciertas cautelas, cada vez más imprescindibles.

Pero de la misma forma que estas técnicas de inteligencia artificial se extienden y su uso se generaliza, también evolucionan. En ocasiones, a una velocidad muy superior a la de nuestra capacidad de adaptación y aprendizaje. Y es en ese desfase entre una cosa y la otra donde se encuentra el terreno mejor abonado para el engaño. Donde casi todos picamos el anzuelo.

Hace algunas semanas, la Comisión Federal de Comercio de Estados Unidos reunió a un grupo de expertos para advertir sobre el peligro de los deepfakes de voz. La tecnología usada en aquel vídeo de 2017 en el que se daba vida a un falso Barack Obama —logrando una sincronización perfecta entre la voz y los movimientos faciales— ya ha sido superada. Hoy en día la clonación de voz es prácticamente indetectable. Hasta tal punto que las estafas de grandes cantidades de dinero mediante este sistema son una realidad, como le ocurrió hace unos meses a una compañía energética en el Reino Unido.

«En la actualidad la tecnología de vanguardia nos permitiría editar un vídeo en el que la persona que nosotros queramos, de pies a cabeza, haga y diga lo que a nosotros se nos antoje»

Pero a esos vídeos en los que vemos la cara de otra persona diciendo algo que no ha dicho hay que sumar ahora un nuevo avance, que consiste en los deepfakes de cuerpo entero. La compañía japonesa Data Grid ha conseguido crear el espejismo definitivo. Han desarrollado un algoritmo capaz de generar, a partir de la nada, personas que no existen. Es decir, en la actualidad, la tecnología de vanguardia nos permitiría editar un vídeo en el que la persona que nosotros queramos, de pies a cabeza, haga y diga lo que a nosotros se nos antoje.

Y utilizo la primera persona del plural porque es algo que está a nuestro alcance. Cada vez más, las compañías que se dedican a la elaboración de deepfakes ponen sus servicios a disposición de consumidores y empresas. La compañía argentina Icons8, por ejemplo, incluye en su catálogo online la posibilidad de aumentar la apariencia de diversidad de un proyecto mediante la utilización de «ambientes étnicos distintos». O dicho de otro modo: si a los vídeos o fotos promocionales de tu empresa le hacen falta unos cuantos asiáticos, más mujeres y tres o cuatro latinos, ellos te lo solucionan. Tal y como reconoció el fundador de la compañía al Washington Post, sus tres primeros clientes fueron una universidad estadounidense, una empresa de recursos humanos y una app de citas. No es difícil extraer conclusiones.

No obstante, si hay algo preocupante en que cualquiera pueda encargar el deepfake que desee —ahora que estos pueden consistir en que alguien haga y diga lo que a uno se le ocurra— es la función para la que se crea ese contenido. La firma Deeptrace Labs, encargada de detectar estos vídeos falsos en internet, publicó un estudio hace unos meses en el que descubrimos un dato alarmante: el 96% de los deepfakes que hay en la web consisten en vídeos de alguna mujer, conocida o anónima, real o irreal, realizando una práctica sexual no consentida.

Es decir, casi todos los deepfakes actuales son de alguna mujer, famosa o no, en una escena pornográfica. Y ahora que está al alcance de todos nosotros elaborar un deepfake a la carta, esa mujer podría ser cualquiera. Es posible crear un vídeo en el que, sin su consentimiento, aparezca nuestra expareja haciendo algo que la humille profundamente. Basta con deslizar ese vídeo en las redes sociales para que su reputación y su autoestima se vean seriamente dañadas. Puede ser la madre de un compañero practicando zoofilia. O nuestro jefe vendiendo droga a las puertas de un colegio. Qué más da. Si se trata de denigrar a alguien, las posibilidades son muchas.

«Es posible crear un vídeo en el que, sin su consentimiento, aparezca nuestra expareja haciendo algo que la humille profundamente. Basta con deslizar ese vídeo en las redes sociales para que su reputación y su autoestima se vean seriamente dañadas»

Lo que queda por delante es seguir aprendiendo a interpretar la realidad digital, cada vez con más cautelas. Aunque a partir de ahora, lo mejor será poner cualquier vídeo sospechoso en cuarentena hasta averiguar si es auténtico o no. Porque parece que ha llegado el momento en el que la ficción, contra todo pronóstico, comienza a superar a la realidad.