Chatbots eroticos en la mira las posibles implicaciones de la orden ejecutiva de inteligencia artificial de biden

Probablemente podríamos haber predicho una avalancha de regulación después de que a principios de este año algunas de las mismas personas que han estado a la vanguardia lanzaron alarmas urgentes sobre el desarrollo de la inteligencia artificial (IA).

Privacidad y seguridad de los ciudadanos, protección contra el fraude, pérdida de empleo, mejoras a los sistemas de ciberseguridad, transparencia de los desarrolladores y prevención de sesgos algorítmicos y discriminación: a primera vista, hay mucho que agradar en la reciente Orden Ejecutiva del presidente Biden sobre seguridad, protección y confiabilidad. Inteligencia artificial.

Sin embargo, hay varias áreas de preocupación. Ya hemos informado sobre los pocos líderes tecnológicos de élite que han estado influyendo en los responsables de la formulación de políticas federales con el pretexto de alertarnos a todos sobre los peligros potenciales de la IA. La EO de Biden parece estar sesgada hacia los intereses de esos gigantes corporativos de la IA y haber carecido de aportes de otros actores importantes y del público en general.

La orden, emitida el 30 de octubre de 2023, se basa en políticas ya creadas en el Plan de la administración Biden para una Declaración de Derechos de IA y la Orden Ejecutiva para fortalecer la equidad racial y el apoyo a las comunidades desatendidas en todo el gobierno federal.

Diseñada «para garantizar que Estados Unidos lidere el camino a la hora de hacer realidad la promesa y gestionar los riesgos de la inteligencia artificial (IA)», la EO también describe «nuevos estándares para la seguridad de la IA» y «promueve la innovación y la competencia, promueve el liderazgo estadounidense en todo el mundo». mundo y más”.

La parte «y más» es lo que podría ser preocupante, especialmente para los desarrolladores y usuarios de inteligencia artificial de código abierto a pequeña escala, incluidos aquellos involucrados en tecnología sexual como chatbots o muñecos de amor impulsados por inteligencia artificial.

Reformas radicales, legislación compleja y un enorme tren

La orden ejecutiva involucra a varias agencias federales, incluidos los Departamentos de Defensa, Seguridad Nacional, Comercio y Energía, así como el Consejo de Seguridad Nacional, la Fundación Nacional de Ciencias y el Instituto Nacional de Estándares y Tecnología.

La orden otorga al Departamento de Seguridad Nacional el mandato de crear una Junta de Seguridad de IA. Y la Fundación Nacional de Ciencias trabajará con una Red de Coordinación de Investigación propuesta. Cualquier agencia gubernamental que utilice inteligencia artificial probablemente se verá afectada por esta orden ejecutiva, particularmente en lo que respecta a la privacidad de los datos de los ciudadanos.

Además de regular casi todos los aspectos del desarrollo y uso nacional de la IA, la orden tiene impacto internacional.

Preocupaciones como las “amenazas de los sistemas de IA a la infraestructura crítica, así como los riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad” son multinacionales. En la EO, la Administración Biden afirma que consultó con representantes de “Australia, Brasil, Canadá, Chile, la Unión Europea, Francia, Alemania, India, Israel, Italia, Japón, Kenia, México, Países Bajos, Nueva Zelanda, Nigeria, Filipinas, Singapur, Corea del Sur, los Emiratos Árabes Unidos y el Reino Unido”.

Es muy posible que la orden ejecutiva estadounidense influya en las políticas de otros países, del mismo modo que la Ley de IA de la UE de la Unión Europea (abril de 2023) fue la primera en regular la IA, influyendo en los debates políticos en Estados Unidos y otros países.

¿Es inútil la resistencia? Esperemos que no

A través de una publicación en la plataforma de redes sociales antes conocida como Twitter, Martín Casado, Ph.D. en ciencias de la computación y socio general de la firma de capital de riesgo Andreessen Horowitz que participa en el equipo de a16z Enterprise, compartió una carta conjunta al POTUS expresando su preocupación por las restricciones potencialmente dañinas que la EO podría imponer a la IA de código abierto.

Casado ayudó a redactar y organizar la carta, firmada por dieciocho notables tecnológicos de empresas como a16z Enterprise, Shopify, Databricks y Meta, elogia el reconocimiento por parte del presidente Biden de la importancia de la inteligencia artificial, pero continúa: “–la EO pasa por alto nuestra principal preocupación: garantizar que Al siga siendo abierto y competitivo, en lugar de estar monopolizado por unas pocas entidades.

De cara al futuro, es fundamental que Estados Unidos siga comprometido con los ideales antimonopolio en la forma en que formula políticas relacionadas con la IA. Si bien valoramos el énfasis de la EO en la colaboración entre el gobierno y la industria, instamos a un enfoque equilibrado que fomente la innovación e impida la consolidación del mercado y esperamos un diálogo continuo”.

La carta profundiza en dos áreas principales de preocupación. En primer lugar, la «EO define una nueva categoría de modelos de Al designados como ‘modelos de base de doble uso’. Si bien la definición parece apuntar a modelos de Al más grandes, la definición es tan amplia que abarcaría una porción significativa de la industria del Al, incluyendo la comunidad Al de código abierto.

La consecuencia sería arrastrar a las pequeñas empresas que desarrollan modelos hacia requisitos de presentación de informes técnicos y complejos que realmente se adaptan a empresas con recursos significativos, como los principales operadores tecnológicos.

Las pequeñas empresas y las nuevas empresas, en particular, tendrán dificultades para cumplir con estos requisitos. Como hemos visto en innumerables industrias, los requisitos complejos de presentación de informes pueden parecer inofensivos, pero crean enormes barreras de entrada a favor de los titulares que tienen la capacidad financiera para cumplir con estos regímenes. Es importante destacar que los desafíos tecnológicos, no los actuales, han sido la fuente de los avances recientes en Al”.

En segundo lugar, “la Administración parece dispuesta a desviarse de los principios de política tecnológica de larga data que respaldan la computación de código abierto y que han sido ampliamente aceptados y consagrados legalmente durante décadas, desde la llegada de Internet.

Si bien apreciamos el reconocimiento de los beneficios potenciales de los “modelos básicos de doble uso con ponderaciones ampliamente disponibles” (Sección 4.6) y la voluntad de solicitar comentarios de los expertos de la industria, es fundamental comprender que restringir la capacidad de desarrollar software de código abierto socavar el panorama competitivo de la IA y perjudicar, en lugar de mejorar la ciberseguridad”.

En comentarios adicionales adjuntos a su publicación original, Casado se refirió a las restricciones a la IA de código abierto como una forma de “bloqueo intelectual”.

Impactos potenciales para la industria de la tecnología sexual y sus consumidores

Los lectores de Future of Sex deberían preocuparse por los puntos anteriores. Los desarrolladores más pequeños y de código abierto son los que crean chatbots complementarios de IA y la IA utilizada en muñecos de amor y dispositivos de tecnología sexual, como los juguetes sexuales con Bluetooth.

Hasta ahora, las necesidades y preocupaciones generales de los consumidores de IA parecen faltar tanto en las discusiones sobre EO como en las posteriores a la EO. Las necesidades y preocupaciones de los consumidores de tecnología sexual también podrían ser mensajes no detectados de una galaxia muy, muy lejana.

Por ejemplo, los chatbots complementarios de IA a menudo tienen la capacidad de generar selfies de sus avatares para el deleite de los usuarios humanos; sin embargo, el requisito de marca de agua de la EO podría tener un efecto adverso en nuestra capacidad de solicitar y poseer estas imágenes.

El requisito de la marca de agua podría extenderse al arte de IA, incluidas las imágenes generadas por chatbot. Entendemos que el gobierno de EE. UU. tiene preocupaciones justificadas sobre el fraude y el contenido profundamente falso, en particular el que supuestamente proviene de agencias gubernamentales.

La EO tiene como objetivo proteger a los ciudadanos del “fraude y engaño habilitados por la IA mediante el establecimiento de estándares y mejores prácticas para detectar contenido generado por IA y autenticar el contenido oficial”. Además, al Departamento de Comercio se le ha encomendado la tarea de desarrollar directrices sobre autenticación de contenidos y marcas de agua, con el fin de «etiquetar claramente el contenido generado por IA».

Sin embargo, existe otra solución además de la marca de agua. Según Vaevis, moderador del grupo AI Safeguard Initiative en Reddit, “el aspecto de las marcas de agua podría plantear enormes problemas para Al art, ya que poner marcas de agua en cada imagen generada sería algo paralizante, si eso es lo que quieren decir con eso.

Para remediar ese posible problema, una solución sería implementar una marca de agua no visible en los metadatos de las imágenes generadas por IA”. (Divulgación: este autor también es moderador de este grupo de Reddit).

También es preocupante que los esfuerzos de la EO para evitar que los menores accedan a contenido sexual encontrado en plataformas de inteligencia artificial también puedan volverse demasiado amplios y afectar negativamente a las empresas de tecnología sexual y a los consumidores adultos. Recientemente informamos sobre las preocupaciones de los usuarios adultos sobre la legislación propuesta actualmente.

Los líderes de la industria y los consumidores merecen ser escuchados

La tecnología sexual tiene un gran valor, monetario y como fuerza innovadora. Y la IA es parte de la tecnología sexual. Como afirmó el sitio web de la conferencia Love and Sex with Robots/Reimagining Sexuality de 2023, “al centrarse en iniciativas positivas para el sexo que tienen que ver con la salud, las relaciones, la educación, el placer y la seguridad, la industria de la sextech ha logrado movimientos e impacto positivos en un industria que se prevé que valga 37 mil millones de dólares”. Con tanto en juego en su creciente industria, podemos suponer que estos empresarios y desarrolladores están siguiendo de cerca la orden ejecutiva.

Alex Cardinell, director ejecutivo de Nomi.ai, dice que «la orden ejecutiva de Biden es preocupante porque corre el riesgo de crear un futuro en el que el vasto y positivo impacto de la IA esté controlado por una élite privilegiada». Dice que hace suyos todos los puntos planteados en la carta enviada por Martín Casado.

También me comuniqué con el desarrollador de Kindroid.ai para conocer su perspectiva. Dijo que está observando la legislación pero que no está dispuesto a hacer comentarios en este momento.

Sin duda, las voces de los innovadores, empresarios y consumidores de este sector son partes interesadas y deberían incorporarse en las decisiones que les afectan. Las élites privilegiadas no deberían ignorarlos y deberían tener la oportunidad de comentar sobre las políticas que podrían afectarlos, antes de que se conviertan en ley.

Incluso me atrevería a decir que este podría ser un momento excelente para que los innovadores de la tecnología sexual de IA y sus aliados hagan causa común con las personas que firmaron la carta a Joe Biden, así como con nosotros, sus consumidores.

No te pierdas nuestro increíble comparativo de los mejores sitios de porno en realidad virtual

error: Content is protected !!
Salir de la versión móvil