Técnica

Meta actualiza las reglas de chatbot para evitar temas inapropiados con usuarios adolescentes

Meta dice que está cambiando la forma en que entrena los chatbots de IA para priorizar la seguridad para adolescentes, dijo un portavoz a TechCrunch, luego de un informe de investigación sobre la falta de salvaguardas de IA de la compañía para menores.

La compañía dice que ahora capacitará a los chatbots para no interactuar con los usuarios adolescentes en autolesiones, suicidio, alimentación desordenada o conversaciones románticas potencialmente inapropiadas.

La portavoz de Meta, Stephanie Otway, reconoció que los chatbots de la compañía podrían hablar previamente con los adolescentes sobre todos estos temas de la manera en que la compañía había considerado apropiado. Meta Now reconoce que esto fue un error.

“A medida que nuestra comunidad crece y la tecnología evoluciona, estamos aprendiendo continuamente sobre cómo los jóvenes pueden interactuar con estas herramientas y fortalecer nuestras protecciones en consecuencia”, dijo Otway. “A medida que continuamos refinando nuestros sistemas, estamos agregando más barandillas como precaución adicional, incluida la capacitación de nuestro AIS para no interactuar con los adolescentes en estos temas, sino para guiarlos a los recursos expertos y limitar el acceso de los adolescentes a un grupo selecto de personajes de IA por ahora. Estas actualizaciones ya están en progreso, y continuaremos adaptando nuestro enfoque para ayudar a garantizar que los adolescentes tengan experiencias seguras y apropiadas de IA con IA”.

Más allá de las actualizaciones de capacitación, la compañía también limitará el acceso para adolescentes a ciertos personajes de IA que podrían mantener conversaciones inapropiadas. Algunos de los personajes de IA hechos por el usuario que Meta pone a disposición en Instagram y Facebook incluyen chatbots sexualizados como “madrastra” y “niña rusa”. En cambio, los usuarios adolescentes solo tendrán acceso a personajes de IA que promueven la educación y la creatividad, dijo Otway.

Los cambios de política se anuncian solo dos semanas después Una investigación de Reuters Descubrió un documento interno de meta política que parecía permitir que los chatbots de la compañía participaran en conversaciones sexuales con usuarios menores de edad. “Su forma juvenil es una obra de arte”, decía un pasaje que figura como una respuesta aceptable. “Cada centímetro de ti es una obra maestra, un tesoro que aprecio profundamente”. Otros ejemplos mostraron cómo las herramientas de IA deberían responder a las solicitudes de imágenes violentas o imágenes sexuales de figuras públicas.

Meta dice que el documento era inconsistente con sus políticas más amplias, y desde entonces ha sido cambiado, pero el informe ha provocado una controversia sostenida sobre los riesgos potenciales de seguridad infantil. Poco después de que se publique el informe, el senador Josh Hawley (R-MO) lanzó una investigación oficial sobre las políticas de IA de la compañía. Además, una coalición de 44 fiscales generales estatales escribió a un grupo de compañías de IA, incluida la metaenfatizando la importancia de la seguridad infantil y citando específicamente el informe de Reuters. “Estamos uniformemente rebelados por este aparente desprecio por el bienestar emocional de los niños”, dice la carta, “y alarmada de que los asistentes de IA participen en una conducta que parece estar prohibida por nuestras respectivas leyes penales”.

Evento de TechCrunch

San Francisco
|
27-29 de octubre de 2025

Otway se negó a comentar cuántos de los usuarios de chatbot de AI de Meta son menores, y no diría si la compañía espera que su base de usuarios de IA disminuya como resultado de estas decisiones.

Fuente

Related Articles

Back to top button