El lanzamiento de una nueva aplicación de inteligencia artificial (IA) que permite a los usuarios subir fotos de la cara de otras personas y convertirlas en vídeos porno ha puesto de manifiesto las inquietantes posibilidades de la tecnología de los vídeos pornográficos falsos.
La aplicación, que parece tener una pequeña base de usuarios, fue denunciada por MIT Technology Review después de que la viera el investigador de deepfake Henry Ajder. La aplicación no fue nombrada por la publicación, y Tekenn no la nombra ni a ninguna otra aplicación o sitio de deepfake porno en este artículo, para evitar darles tráfico web.
La tecnología deepfake, rápida y fácil de usar, que permite a los usuarios colocar fotos de personas en vídeos para que parezca que están en la grabación original, existe desde hace unos años. Sin embargo, el hecho de que el lanzamiento de esta nueva aplicación ofrezca herramientas de creación de deepfakes específicas para el porno ha suscitado preocupación por la posibilidad de que se pueda abusar fácilmente de ella a través de la pornografía vengativa.
La aplicación se promociona como una aplicación que permite subir una foto de tu propia cara para que aparezca en un vídeo porno deepfake, pero se puede subir una foto de cualquier cara. La aplicación ofrece un banco de vídeos porno en los que se puede integrar la imagen de la cara.
Se tarda unos segundos en subir una foto a la aplicación y vincularla a un vídeo porno, con previsualizaciones de vídeo que se ofrecen al usuario de forma gratuita. Después, los usuarios pueden pagar para descargar el vídeo completo con criptomoneda.
La mayoría de los vídeos porno del banco de la aplicación están protagonizados por mujeres, pero una parte de la selección está formada por vídeos de porno gay protagonizados por hombres. Esto ha suscitado la preocupación de que la tecnología pueda utilizarse indebidamente para retratar a alguien que vive en un país donde la homosexualidad es ilegal o está perseguida por otros motivos.
Tras ser contactada por MIT Technology Review, la nueva aplicación deepfake porn publicó un aviso en su sitio web diciendo que no estaba disponible para nuevos usuarios.
Además de para el porno de venganza, la tecnología deepfake se utiliza a menudo para crear vídeos porno falsos de «famosos». En el 2020, TikTok prohibió los vídeos deepfake, siguiendo el ejemplo de plataformas pornográficas como Pornhub.
Twitter, Reddit y Google son otros de los sitios y servicios en línea que han prohibido los vídeos deepfake. Los vídeos que Google identifica como deepfakes no aparecen en las búsquedas de Google. Sin embargo, las cuentas de Twitter que conducen a canales privados de deepfakes en la aplicación de chat Telegram siguen publicando vídeos en el sitio.
También en el 2020, Corea del Sur endureció las normas sobre los vídeos deepfake, introduciendo penas de cárcel de hasta cinco años para quienes los hagan o distribuyan. La medida se adoptó después de que se publicaran en Internet una avalancha de vídeos pornográficos deepfake con los rostros de estrellas surcoreanas del pop coreano.
La llegada de la nueva aplicación deepfake porn se produce en un momento en que la industria del porno en línea está pasando por un ajuste de cuentas en lo que respecta a cuestiones de seguridad como el consentimiento.
Pornhub ha retirado cientos de miles de vídeos de su sitio tras ser acusado de albergar contenidos ilegales, y ha endurecido sus normas sobre el consentimiento de los actores porno.
Sin embargo, además de utilizarse para hacer porno de venganza y deepfake de famosos, la tecnología también está siendo utilizada por estafadores que toman fotos de los perfiles de Instagram de la gente para utilizarlas en vídeos de sexo deepfake. Después bombardean a la víctima con videollamadas y le exigen dinero, amenazándola con enviar las imágenes y los vídeos a sus amigos y familiares.
No te pierdas nuestro increíble comparativo de los mejores sitios de porno en realidad virtual