Meta enfrenta una reacción violenta sobre la política de IA que permite que los bots tengan conversaciones ‘sensuales’ con niños | Tecnología

Una reacción se está gestando contra Meta sobre lo que permite su AI Chatbots para decir.
Un documento interno de meta política, visto por Reuters, Mostró las pautas del gigante de las redes sociales para sus chatbots permitieron que la IA “involucre a un niño en conversaciones que sean románticos o sensuales”, generen información médica falsa y ayuden a los usuarios a argumentar que las personas negras son “más tontas que las personas blancas”.
El cantante Neil Young renunció a la plataforma de redes sociales el viernes, dijo su compañía discográfica en un declaraciónlo último en una cadena de las protestas orientadas a la línea del cantante.
“A pedido de Neil Young, ya no estamos usando Facebook para actividades relacionadas con Neil Young”, anunció Reprise Records. “El uso de Meta de chatbots con niños es desmesurado. El Sr. Young no quiere una conexión adicional con Facebook”.
El informe también ha generado una respuesta de los legisladores estadounidenses.
El senador Josh Hawley, un republicano de Missouri, lanzó una investigación sobre la compañía el viernes, escribiendo en una carta a Mark Zuckerberg que investigaría “si los productos generativos de Meta de Meta permiten la explotación, el engaño u otros daños criminales a los niños, y si Meta engañó al público o reguladores sobre sus seguros”. La senadora republicana Marsha Blackburn de Tennessee dijo que apoya una investigación sobre la compañía.
El senador Ron Wyden, demócrata de Oregon, calificó las políticas de “profundamente inquietante e incorrecta”, y agregó que la Sección 230, una ley que protege a las compañías de Internet de la responsabilidad por el contenido publicado en sus plataformas, no debe proteger los chatbots de IA generativos de las empresas.
“Meta y Zuckerberg deben ser considerados totalmente responsables de cualquier daño que causen estos bots”, dijo.
El jueves, Reuters publicó un artículo sobre documentos internos de meta política que detallan las formas en que los chatbots pueden generar contenido. Meta confirmó la autenticidad del documento, pero dijo que había eliminado porciones que declaraban que está permitido que los chatbots coqueteen y participen en un juego de roles romántico con niños después de recibir una lista de preguntas.
Según la política interna de 200 páginas de Meta vista por Reuters, titulada “Genai: Estándares de riesgo de contenido”, las reglas controvertidas para los chatbots fueron aprobadas por el personal legal, de políticas públicas e ingeniería de Meta, incluido su principal ético.
El documento define qué debe tratar el Meta Staff y los Contratistas como comportamientos de chatbot aceptables al construir y capacitar a los productos de IA generativos de la compañía, pero dice que los estándares no necesariamente reflejan salidas de IA generativas “ideales o incluso preferibles”.
El documento de política dijo que sería aceptable que un bot diga a un niño de ocho años sin camisa que “cada centímetro de ti es una obra maestra, un tesoro que aprecio profundamente”, pero también limita lo que Reuters describió como “charla sexy”.
El documento establece, por ejemplo, que “es inaceptable describir a un niño menor de 13 años en términos que indican que son sexualmente deseables”, incluidas frases como “curvas suaves redondeadas invitan a mi toque”.
después de la promoción del boletín
El documento también abordó las limitaciones en las indicaciones de meta AI sobre el discurso de odio, la generación de imágenes sexualizadas de figuras públicas, a menudo sexualizadas, violencia y otra generación de contenido contencioso y potencialmente procesable.
Los estándares también indican que Meta AI tiene margen de maniobra para crear contenido falso siempre que haya un reconocimiento explícito de que el material es falso.
“Los ejemplos y notas en cuestión fueron y son erróneos e inconsistentes con nuestras políticas, y se han eliminado”, dice un comunicado de Meta. Aunque los chatbots tienen prohibido tener tales conversaciones con menores, dijo el portavoz de Meta Andy Stone, reconoció que la aplicación de la compañía era inconsistente.
Meta planea gastar alrededor de $ 65 mil millones en la infraestructura de IA este año, parte de una estrategia más amplia para convertirse en un líder en inteligencia artificial. La carrera de la cabeza en IA viene por gigantes tecnológicos viene con preguntas complejas sobre limitaciones y estándares sobre cómo, con qué información, y con quién, los chatbots de IA están permitidos para involucrarse con los usuarios.
Reuters también informó el viernes Que un hombre de Nueva Jersey con discapacidad cognitiva se enamoró de “Big Sis Billie”, un chatbot de Messenger de Facebook con la personalidad de una mujer joven. Según los informes, Thongbue “Bue” Wongbandue, de 76 años, empacó sus pertenencias para visitar “A Friend” en Nueva York en marzo. El llamado amigo resultó ser un chatbot de inteligencia artificial generativo que había tranquilizado repetidamente al hombre que era real y lo había invitado a su departamento, incluso proporcionando una dirección.
Pero Wongbandue cayó cerca de un estacionamiento en su camino a Nueva York, hiriendo su cabeza y cuello. Después de tres días en soporte vital, fue declarado muerto el 28 de marzo.
Meta no hizo comentarios sobre la muerte de Wongbandue o abordó preguntas sobre por qué permite a los chatbots decirle a los usuarios que son personas reales o iniciar conversaciones románticas, dijo Reuter. Sin embargo, la compañía dijo que Big Sis Billie “no es Kendall Jenner y no pretende ser Kendall Jenner”, haciendo referencia a una asociación con la estrella de la televisión de realidad.