Técnica

Meta para agregar nuevas salvaguardas de IA después de que el informe plantea preocupaciones de seguridad para adolescentes

Foto del archivo: Meta está agregando nuevas salvaguardas de adolescentes a sus productos de IA mediante sistemas de capacitación para evitar conversaciones coquetas y discusiones sobre autolesiones o suicidio con menores. | Crédito de la foto: Reuters

Meta está agregando nuevas salvaguardas de adolescentes a sus productos de inteligencia artificial mediante sistemas de capacitación para evitar conversaciones coquetas y discusiones sobre autolesiones o suicidio con menores, y limitando temporalmente su acceso a ciertos personajes de IA.

Un informe exclusivo de Reuters a principios de agosto reveló cómo Meta permitió el comportamiento provocativo de chatbot, incluido el dejamiento de los bots participar en “conversaciones que son románticas o sensuales”.

El portavoz de Meta, Andy Stone, dijo en un correo electrónico el viernes que la compañía está tomando estas medidas temporales mientras desarrolla medidas a largo plazo para garantizar que los adolescentes tengan experiencias de IA seguras y apropiadas para la edad.

Stone dijo que las salvaguardas ya se están implementando y se ajustarán con el tiempo a medida que la compañía refine sus sistemas.

Las políticas de AI de Meta se vieron bajo un intenso escrutinio y reacción después del informe de Reuters.

El senador estadounidense Josh Hawley lanzó una investigación sobre las políticas de IA de los padres de Facebook a principios de este mes, exigiendo documentos sobre reglas que permitieron que sus chatbots interactuaran de manera inapropiada con los menores.

Tanto los demócratas como los republicanos en el Congreso han expresado alarma sobre las reglas descritas en un meta documento interno que fue revisado por primera vez por Reuters.

Meta había confirmado la autenticidad del documento, pero dijo que después de recibir preguntas a principios de este mes de Reuters, la compañía eliminó porciones que decían que estaba permitido que los chatbots coqueteara y participaran en un juego romántico con los niños.

“Los ejemplos y las notas en cuestión fueron y son erróneos e inconsistentes con nuestras políticas, y han sido eliminados”, dijo Stone a principios de este mes.

Fuente

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button