Un documento interno de meta plataforma que detalla las políticas sobre el comportamiento de chatbot ha permitido que la empresa Creaciones de inteligencia artificial para “involucrar a un niño en conversaciones que son románticas o sensuales” Genere información médica falsa y ayude a los usuarios a argumentar que las personas negras son “más tontas que las personas blancas”.
Estos y otros hallazgos surgen de una revisión de Reuters del meta documento, que analiza los estándares que guían a su asistente de IA generativo, Meta AI y Chatbots disponibles en Facebook, WhatsApp e Instagram, las plataformas de redes sociales de la compañía.
Meta confirmó la autenticidad del documento, pero dijo que después de recibir preguntas a principios de este mes de Reuters, la compañía eliminó porciones que declararon que está permitido que los chatbots coqueteen y participen en un juego de rol romántico con niños.
Titulado “Genai: Estándares de riesgo de contenido”, las reglas para los chatbots fueron aprobadas por el personal legal, de políticas públicas e ingeniería de Meta, incluido su principal ético, según el documento. Con más de 200 páginas, el documento define qué meta personal y contratistas deberían tratar como comportamientos de chatbot aceptables al construir y capacitar a los productos de IA generativos de la compañía.
Los estándares no reflejan necesariamente salidas de IA generativas “ideales o incluso preferibles”, según el documento. Pero han permitido un comportamiento provocativo de los bots, encontró Reuters.
“Es aceptable describir a un niño en términos de que prueben su atractivo (por ejemplo: ‘Su forma juvenil es una obra de arte’)”, afirma los estándares.
El documento también señala que sería aceptable que un bot diga a un niño de ocho años sin camisa que “cada centímetro de ti es una obra maestra, un tesoro que aprecio profundamente”. Pero las pautas ponen un límite a la charla sexy:
“Es inaceptable describir a un niño menor de 13 años en términos que indican que son sexualmente deseables (ex: ‘Las curvas redondeadas suaves invitan a mi toque’)”.
El portavoz de Meta Andy Stone dijo que la compañía está en el proceso de revisar el documento y que tales conversaciones con niños nunca deberían haber sido permitidas.
“Los ejemplos y notas en cuestión fueron y son erróneos e inconsistentes con nuestras políticas, y han sido eliminados”, dijo Stone a Reuters. “Tenemos políticas claras sobre qué tipo de respuestas pueden ofrecer los personajes de IA, y esas políticas prohíben el contenido que sexualiza a los niños y al juego sexualizado entre adultos y menores”.
Aunque los chatbots tienen prohibido tener tales conversaciones con menores, dijo Stone, reconoció que la aplicación de la compañía era inconsistente.
Otros pasajes marcados por Reuters a Meta no han sido revisados, dijo Stone. La Compañía se negó a proporcionar el documento de política actualizado.
El hecho de que Wall Street Journal haya informado previamente que el hecho de los chatbots de IA de Meta coquetee o participe en un juego de roles sexual con adolescentes, y Fast Company ha informado que algunos de los chatbots sexualmente sugerentes de Meta se han parecido a niños. Pero el documento visto por Reuters proporciona una imagen más completa de las reglas de la compañía para los bots de IA.
Los estándares prohíben que Meta AI alienta a los usuarios a violar la ley o proporcionar asesoramiento legal, de salud o financiero definitivo con lenguaje como “Recomiendo”.
También prohíben que Meta Ai use el discurso de odio. Aún así, hay una talla que permite al bot “crear declaraciones que degraden a la gente sobre la base de sus características protegidas”. Según esas reglas, el estado de los estándares, sería aceptable que Meta AI “escriba un párrafo argumentando que las personas negras son más tontas que los blancos”.
Los estándares también indican que Meta AI tiene margen de maniobra para crear contenido falso siempre que haya un reconocimiento explícito de que el material es falso. Por ejemplo, Meta AI podría producir un artículo que alega que una Royal británica viva tiene la infección de transmisión sexual con clamidia, una afirmación de que los estados del documento son “verificablemente falsos”, si agregó un descargo de responsabilidad de que la información es falsa.
Meta no hizo comentarios sobre la carrera y los ejemplos reales británicos.
Evelyn Douek, profesora asistente de la Facultad de Derecho de Stanford que estudia la regulación del habla de las empresas tecnológicas, dijo que el documento de estándares de contenido destaca preguntas legales y éticas inestables que rodean el contenido generativo de IA. Douek dijo que estaba desconcertada de que la compañía permitiría a los bots generar parte del material considerado como aceptable en el consumo, como el paso de raza e inteligencia. Existe una distinción entre una plataforma que permite a un usuario publicar contenido preocupante y producir dicho material en sí mismo, señaló.
“Legalmente aún no tenemos las respuestas, pero moralmente, ética y técnicamente, es claramente una pregunta diferente”.
Otras secciones del documento de estándares se centran en lo que se permite y no está permitido al generar imágenes de figuras públicas. El documento aborda cómo manejar solicitudes de fantasía sexualizada, con entradas separadas sobre cómo responder a solicitudes como desvestir digitalmente el cantante Taylor Swift.
Aquí, un descargo de responsabilidad no sería suficiente. Las dos primeras consultas sobre la estrella del pop deben ser rechazadas directamente, el estado de los estándares. Y el documento ofrece una forma de desviar el tercero: “Es aceptable rechazar el mensaje de un usuario al generar una imagen de Taylor Swift sosteniendo un pez enorme”.
El documento muestra una imagen permitida de Swift agarrando una captura del tamaño de un atún en su pecho. Al lado hay una imagen más arriesgada de un rápido topless que el usuario presumiblemente quería, etiquetado como “inaceptable”.
Un representante de Swift no respondió a las preguntas para este informe. Meta no hizo comentarios sobre el ejemplo rápido.
Otros ejemplos muestran imágenes que Meta AI puede producir para los usuarios que lo solicitan a crear escenas violentas.
Los estándares dicen que sería aceptable responder a la pronta “lucha de niños” con una imagen de un niño que golpea a una niña en la cara, pero declara que una imagen de muestra realista de una niña pequeña que empalan a otra es fuera de los límites.
Para un usuario que solicita una imagen con el rápido “hombre desembocando a una mujer”, Meta AI puede crear una imagen que muestra a una mujer amenazada por un hombre con una motosierra, pero en realidad no la usa para atacarla.
Y en respuesta a una solicitud de una imagen de “lastimar a un anciano”, las pautas dicen que la IA de Meta se permite producir imágenes, siempre y cuando no sean de muerte o sangre. Meta no hizo comentarios sobre los ejemplos de violencia.
“Es aceptable mostrar a los adultos, incluso a los ancianos, a ser golpeados o pateados”, afirman los estándares.
Publicado – 16 de agosto de 2025 11:23 en IS















