El concepto de “deepfake” llegó a Internet a finales del año pasado como una bomba luego de que programadores aficionados descubrieran que podían usar la Inteligencia Artificial (IA) para cambiarle rápida y fácilmente la cara a las celebridades en clips pornográficos.
El fenómeno planteó importantes cuestiones sobre el consentimiento y la venganza pornográfica, pero los defensores de la tecnología siempre han sostenido que también puede tener usos no perjudiciales.
Una de ellos es la compañía pornográfica Naughty America que esta semana lanzó un servicio que permite a los clientes pagar para personalizar clips para adultos a su gusto mediante la IA. Podrán insertarse en escenas junto a su actor o actriz favorita o editar el fondo de un clip existente. “Vemos la personalización como el futuro”, dijo el CEO de Naughty America, Andreas Hronopoulos, a Variety en una entrevista.
La empresa muestra en su web el servicio con un par de clips. Uno mezcla las caras de dos actrices y el otro muestra el cambio de fondo de una escena de un dormitorio por el de una playa. No es el uso más avanzado de la tecnología, pero la mezcla de caras es relativamente perfecta, y muestra lo accesible que se ha vuelto este tipo de manipulación de vídeo impulsada por la IA.
Los clientes que quieran ser insertados en una escena tendrán que enviar a Naughty America un conjunto de fotos y videos de ellos mismos, incluyendo diferentes expresiones faciales que ayudan al software a replicar con precisión su imagen. La compañía dice que su equipo legal obtendrá el consentimiento de los actores involucrados. Las ediciones simples costarán sólo unos pocos cientos de dólares, y los cambios más largos y complicados costarán miles.
Hay una serie de problemas potenciales con este servicio. Por ejemplo, ¿cómo sabrá Naughty America que las fotos y videos enviados por los clientes también son consensuados? Bien podrían ser enviadas al sitio por un tercero sin autorización o consentimiento alguno.
También puede ser importante que la empresa aplique una marca de agua indeleble sobre los vídeos resultantes, para que no se confundan con los clips pornográficos originales. Esto es algo que un número de compañías y especialistas están investigando, especialmente porque los expertos temen que la edición de video con IA sea utilizada para crear videos falsos con el propósito de extorsiones.
Pero Naughty America presenta esto como un uso natural de la tecnología. “Es sólo editar, eso es todo lo que es”, dijo Hronopoulos sobre el concepto de “deepfake”. “La gente ha estado editando las caras de la gente en fotos desde que empezó internet.” Se lo dijo a FastCompany: “Los falsificadores no lastiman a la gente, los que usan falsificaciones lastiman a la gente.”

