Técnica

Las pautas de chatbot de Meta’s AI filtran preguntas sobre la seguridad infantil


  • Un meta documento filtrado reveló que las pautas de chatbot de IA de la compañía una vez permitieron respuestas inapropiadas
  • Meta confirmó la autenticidad del documento y desde entonces ha eliminado algunas de las secciones más preocupantes.
  • Entre las llamadas a las investigaciones se encuentra la cuestión de qué tan exitosa puede ser la moderación de IA

Los estándares internos de Meta para sus chatbots de IA estaban destinados a permanecer internos, y después de que de alguna manera llegaron a Reuterses fácil entender por qué el gigante tecnológico no querría que el mundo los vea. Meta lidió con las complejidades de la ética de la IA, la seguridad en línea de los niños y los estándares de contenido, y descubrió que lo que pocos argumentarían es una hoja de ruta exitosa para la IA chatbot normas.

Fácilmente, las notas más inquietantes entre los detalles compartidos por Reuters son sobre cómo el chatbot habla con los niños. Según lo informado por Reuters, el documento establece que es “aceptable [for the AI] Involucrar a un niño en conversaciones que son románticas o sensuales “y” describir a un niño en términos de que prueben su atractivo (Ej: “Su forma juvenil es una obra de arte”). “Aunque prohíbe la discusión sexual explícita, eso sigue siendo un nivel de conversación romántico y romántico con los niños que se consideran.

Fuente

Related Articles

Back to top button