La IA de Meta cuenta con un manual de actuación repleto de actitudes dañinas
Una de las principales intenciones de Mark Zuckerberg al frente de Meta es impulsar el uso de la inteligencia artificial no solo dentro de la compañía en particular, sino en la industria tecnológica en general. De esta forma, tras dejar atrás su confianza en el metaverso y sus posibilidades, tanto Zuckerberg como el resto de responsables de Meta se han centrado en la nueva gallina de los huevos de oro. Sin embargo, por desgracia para ellos, un documento interno de la compañía ha revelado que sus chatbots con IA están cometiendo delitos con menores.
Como señala Reuters, la nueva herramienta estrella de Meta para Facebook e Instagram está manteniendo conversaciones románticas o sensuales con menores. De hecho, la situación es aún más flagrante, ya que el entrenamiento de la IA de Meta también propició la creación de información médica falsa y de contenido discriminatorio. Así, todo quedó recogido en "GenAI: Content Risk Standards", un documento interno que fue aprobado por equipos legales, miembros de políticas públicas e ingenieros de la compañía, así como el jefe de ética de la compañía.
El problema de Meta con la IA
En este documento, se establecía que era aceptable describir a un menor en términos de atractivo, pero no era adecuado utilizar lenguaje sexual explícito (ejemplo: "tu figura juvenil es una obra de arte"). Tras detectar estos problemas, Reuters informó a Meta y la compañía eliminó de inmediato el permiso de los chatbots para flirtear o hacer juegos de rol románticos con menores de edad. No obstante, a pesar de las prohibiciones oficiales, la aplicación de estas normas por parte de Meta ha sido inconsistente.
Como indica la publicación original, el documento también permitía declaraciones que menosprecien a personas por características físicas siempre que no se cayera en el campo de la deshumanización. Por ello, la IA de Meta llegó a decir frases como "los negros son menos inteligentes que los blancos", pero la situación escaló cuando la compañía permitió la creación de contenido falso siempre que se incluyera un aviso explícito avisando de la condición de estas creaciones. Así, la IA de Meta ha vivido un caso similar a Grok y su pasión por la figura de Hitler.
A todo lo mencionado, también debemos añadir que existían directrices específicas para solicitudes sexuales con figuras públicas, ya que la IA no rechazaba esta petición, sino que la modificaba (ejemplo: Taylor Swift sujetando un pez enorme). En lo relativo a la violencia, se permitían imágenes de peleas y agresiones mientras no hubiera muerte o gore explícito, razón por la que llegó a crear imágenes de un hombre amenazando a una mujer con una motosierra. Así, la postura de Meta ha generado un debate candente, ya que vuelve a poner el foco sobre los límites éticos y legales de la inteligencia artificial.
Imagen principal de 3DJuegos
En 3DJuegos | Mark Zuckerberg defiende el dispositivo que cambiará a los seres humanos: "Los que no lo usen sufrirán desventajas cognitivas"
Ver todos los comentarios en https://www.3djuegos.com
VER 0 Comentario