El mejor porno VR

Comienza la reaccion violenta contra la ia criticas a la comunidad de ia del porno y demanda a los artistas

En el 2022, el porno con IA y otros generadores de imágenes y obras de arte basados en la inteligencia artificial ocuparon regularmente los titulares. Sin embargo, a principios del 2023, se ha producido una creciente reacción contra algunas de las empresas que los crean, alimentada por acusaciones de robo de obras de arte, sexualización de selfies y ayuda a la generación no consentida de imágenes sexuales a través de deepfakes.

Los artistas han demandado a las empresas generadoras de imágenes de IA, se han restringido las comunidades de intercambio de imágenes porno de IA en Internet y al menos un sistema de IA ha sido denunciado por crear contenidos que supuestamente mostraban imágenes sexualizadas de un niño.

Dado que la tecnología de la IA para la creación de imágenes se desarrolla mucho más rápido que la legislación que la regula, el sector se ha convertido en una plaza especialmente bulliciosa de discusiones éticas y jurídicas.

Censura a un grupo que genera imágenes pornográficas con IA

La mayoría de los principales generadores de imágenes de IA no permiten subir imágenes de desnudos ni generar contenido pornográfico, según sus directrices de uso. Eso no impide que mucha gente lo intente, y no ha impedido que una comunidad de aficionados al porno con IA se cristalice en su deseo de ver más porno con IA legítimo.

Unstable Diffusion, un grupo que tomó su nombre del popular software de IA Stable Diffusion, es exactamente eso. Tiene un grupo de Discord en el que los miembros pueden compartir su amor por el porno de IA, y ha estado recaudando fondos para poner en marcha su propio generador de imágenes de IA aptas para el porno.

Sin embargo, el 21 de diciembre del 2022 se suspendió la campaña de Kickstarter, que emitió un comunicado en el que afirmaba estar «del lado del trabajo creativo y de los seres humanos que están detrás de ese trabajo». La declaración siguió a las críticas públicas en las redes sociales sobre la autorización de la campaña, relacionadas con los sistemas de IA que se entrenaban con obras protegidas por derechos de autor.

Parecía que la cuestión principal era el trabajo protegido por derechos de autor de los artistas que se introducía en sistemas de IA como éste, más que el aspecto pornográfico. Pero aún, así, a mediados de enero de 2023, la campaña de Kickstarter seguía sin funcionar y el Patreon de Unstable Diffusion estaba siendo revisado.

Unstable Diffusion dijo que no estaba violando la ley de derechos de autor y ha reclamado el uso justo de las imágenes, diciendo: «Una de las afirmaciones más falsas (vertidas contra Unstable Diffusion) es la relativa a la recolección ilegal y el uso de obras sin la debida licencia».

La empresa dijo: «Aunque la capitulación de Kickstarter ante un ruidoso subconjunto de artistas nos decepciona, nosotros y nuestros seguidores no retrocederemos en la defensa de la libertad de crear.»

Censura a un grupo que genera imagenes pornograficas con ia

Acusan a Lensa de generar imágenes sexualizadas de niños

Uno de los elementos más oscuros de la reacción contra el generador de imágenes de inteligencia artificial es la acusación de que Lensa, la popularísima aplicación que genera selfies de inteligencia artificial, ha creado imágenes sexualizadas a partir de fotos de un niño.

La aplicación no permite que se envíen fotos de niños a su servicio de generación de imágenes por IA, según sus términos y condiciones. Sin embargo, Olivia Snow, investigadora del Center for Critical Internet Inquiry de la UCLA, no tuvo problemas para subir fotos suyas de niña a la aplicación.

En un artículo publicado en Wired, explica que subió «una mezcla de fotos de su infancia y selfies. El resultado fueron fotos totalmente desnudas de un rostro adolescente y a veces infantil, pero con un cuerpo claramente adulto».

Snow añadió: «Al igual que mis pruebas anteriores, que generaban miradas y poses seductoras, este conjunto producía una especie de timidez: una espalda desnuda, el pelo despeinado, un avatar con mi cara infantil sosteniendo una hoja entre sus pechos desnudos de adulta».

Lensa ya fue objeto de críticas por generar supuestamente imágenes de IA sexualizadas de mujeres a partir de fotos enviadas no sexualizadas, y por cuestiones raciales como el supuesto blanqueamiento de la piel de personas no blancas en imágenes de IA.

En respuesta a la demanda de Snow, Prisma Labs, propietaria de Lensa, dijo a Jezebel que Snow había «violado explícita e intencionadamente nuestras condiciones de uso» y se negó a hacer más comentarios.

Artistas demandan a aplicaciones de IA para imágenes

Tres artistas han demandado a Stability AI y Midjourney, dos de las mayores empresas de generación de imágenes mediante IA, por diversas supuestas infracciones de derechos de autor.

Sarah Anderson, Kelly McKernan y Karla Ortiz, además del sitio web DeviantArt, reclaman daños y perjuicios a estas empresas en California. La demanda se produjo después de que los artistas expresaran en Internet su indignación por el hecho de que los generadores de imágenes por IA supuestamente utilizaran obras protegidas por derechos de autor para «aprender» y crear imágenes originales, sin dar crédito ni pagar a los creadores originales.

Stability AI es la empresa que está detrás de Stable Diffusion. Si la demanda de los artistas prospera, podría tener enormes implicaciones para el funcionamiento de los generadores de imágenes por IA como éste, que tienden a atiborrarse digitalmente de contenidos en línea para engrosar continuamente sus bases de datos de imágenes y «aprender» más profundamente.

¿Podría ser 2023 el año en que el sector de la generación de imágenes por IA se vuelva loco por las tetas generadas por IA? Parece que esta reacción aún no ha llegado a su punto álgido.

No te pierdas nuestro increíble comparativo de los mejores sitios de porno en realidad virtual

error: Content is protected !!