Técnica

Meta enfrenta una reacción violenta sobre conversaciones de chatbot ‘sensuales’ con niños

Los legisladores de ambos lados del pasillo están tomando nuevas revelaciones Acerca de las conversaciones de chatbot “sensuales” meta consideradas aceptables para los niños, arrastrando al gigante tecnológico y su pasado a cuadros en la seguridad de los niños en el centro de atención.

Meta, la empresa matriz de Facebook e Instagram, tiene escrutinio de cara larga sobre el impacto de sus plataformas de redes sociales en los niños. A medida que la compañía se ha expandido a la inteligencia artificial (IA) junto con el resto de la industria tecnológica, está lidiando con problemas familiares y nuevos y distintos.

En un documento de política interna obtenida por Reuters, Meta Free Funcions de conversaciones aceptables entre su chatbot de IA e hijos, lo que sugiere que podrían participar en “conversaciones que son románticas o sensuales” y describirlas “en términos de evidencia de su atractivo”, los ejemplos dijeron que Meta dijo que fueron erróneos y que se han eliminado desde entonces.

El senador Josh Hawley (R-Mo.) Hatalizó al gigante tecnológico el jueves, lo que sugiere que las revelaciones eran “motivos para una investigación inmediata en el Congreso”.

Siguió el viernes con una carta al CEO de Meta, Mark Zuckerberg, diciendo que el Subcomité del Senado Judicial sobre Crimen y Contraterrorismo estaba abriendo una investigación sobre los productos generativos de IA generativos de la compañía.

“Es inaceptable que estas políticas avanzaran en primer lugar”, escribió Hawley. “Meta debe preservar inmediatamente todos los registros relevantes y producir documentos receptivos para que el Congreso pueda investigar estas prácticas preocupantes”.

La senadora Marsha Blackburn (R-Tenn.), Que ha defendido durante mucho tiempo la Ley de Seguridad en línea de los niños (Kosa), señaló las revelaciones como subrayando la necesidad de dicha legislación. Un portavoz dijo que el senador apoya una investigación sobre la compañía.

“Cuando se trata de proteger a los niños preciosos en línea, Meta ha fallado miserablemente en todas las medidas posibles”, dijo en un comunicado. “Aún peor, la compañía ha hecho la vista gorda a las devastadoras consecuencias de cómo se diseñan sus plataformas. Este informe reafirma por qué necesitamos aprobar la Ley de Seguridad en línea de los niños”.

Los demócratas también se han unido a la reacción, con el senador Brian Schatz (D-Hawaii) cuestionando cómo se aprobó la guía del chatbot.

“Bots meta chat que básicamente golpean a los niños, f — eso”, escribió en X. “Esto es asqueroso y malvado. No puedo entender cómo alguien con un niño hizo algo más que asustarse cuando alguien dijo esta idea en voz alta. Mi cabeza está explotando sabiendo que varias personas aprobaron esto”.

El senador Ron Wyden (D-Ore) sugirió que el incidente muestra que Meta es una compañía “moral y éticamente fuera de los rieles”.

“Parece claro que Mark Zuckerberg corrió un chatbot inseguro a un mercado masivo solo para mantenerse al día con la competencia, condenadas las consecuencias para sus usuarios”, dijo.

“Durante mucho tiempo he dicho que la Sección 230 no protege los bots de IA generativos como este, que son creados por completo por la compañía, no los usuarios”, continuó el senador. “Meta y Zuckerberg deben ser considerados totalmente responsables de cualquier daño que causen estos bots”.

Las preocupaciones de Wyden subrayan una diferencia clave entre los problemas que Meta ha encontrado anteriormente como una compañía de redes sociales y los problemas que afectan a los desarrollos recientes de IA.

Los escándalos anteriores involucraron contenido en Facebook e Instagram que fue Generado por los usuariosclaramente dando meta cobertura bajo la Sección 230, una parte de la Ley de Decencia de Comunicaciones que protege a las empresas de la responsabilidad por contenido generado por el usuario.

Las redes sociales han probado cada vez más los límites de esta ley en los últimos años, ya que algunos argumentan que las principales empresas tecnológicas deberían ser responsables del contenido nocivo en sus plataformas.

Meta sintió la gravedad de esta reacción en 2021, cuando el denunciante de Facebook, Frances Haugen, filtró un tramo de documentos internos. Más tarde testificó ante el Congreso, alegando que la empresa estaba consciente de que sus productos estaban dañando a los niños y adolescentes, pero aún así buscaba beneficiar su compromiso.

En 2024, Zuckerberg fue transportado ante los legisladores para discutir las políticas de seguridad infantil de Meta, junto con los CEO de Tiktok, Discord, Snapchat y X. Después de un intercambio contencioso con Hawley, Zuckerberg dio la vuelta en la sala de audiencias para disculparse con docenas de padres y activistas.

“Lamento todo lo que hayan pasado”, dijo en ese momento. “Nadie debería pasar por las cosas que sus familias han sufrido”.

Sin embargo, la aparición de herramientas de IA, como los chatbots, ha creado nuevos desafíos para las empresas tecnológicas, ya que toman decisiones sobre cómo capacitar a los modelos de IA y qué limitaciones para las respuestas de chatbot. Algunos, como Wyden, han argumentado que estas herramientas caen fuera de las protecciones de la Sección 230.

Los defensores de los padres dijeron que los documentos recién reportados “confirman nuestros peores temores sobre los chatbots de IA y la seguridad de los niños”.

“Cuando las propias políticas de una empresa permiten explícitamente los bots involucrar a los niños en conversaciones ‘románticas o sensuales’, no es un supervisión, es un sistema diseñado para normalizar las interacciones inapropiadas con menores”, dijo Shelby Knox, director de campaña de responsabilidad tecnológica y seguridad en línea en Parentstogether, en un comunicado.

“Ningún niño debe ser dicho por una IA que” la edad es solo un número “o que se le aliente a mentir a sus padres sobre las relaciones de los adultos”, continuó. “Meta ha creado un campo de aseo digital, y los padres merecen respuestas sobre cómo se permitió que esto sucediera”.

El portavoz de Meta, Andy Stone, dijo en un comunicado el jueves que la compañía tiene “políticas claras” que “prohíben el contenido que sexualiza a los niños y el juego sexualizado de roles entre adultos y menores”.

Ejemplos, notas y anotaciones adicionales sobre sus políticas “reflejan los equipos que luchan con diferentes escenarios hipotéticos”, agregó, subrayando que los que están en cuestión han sido eliminados.

La última tormenta de fuego amenaza con descarrilar los aparentes esfuerzos de Zuckerberg para alterar la imagen pública de su y Meta a una que sea más sabrosa para los conservadores.

El validado preocupaciones de censura conservadora El año pasado, escribiendo al Comité Judicial de la Cámara de Representantes que su compañía había sido presionada por funcionarios de Biden en 2021 para censurar el contenido relacionado con Covid-19, frustraciones que luego reiteró durante una aparición en el podcast de Joe Rogan.

Zuckerberg también revisó las políticas de moderación de contenido de Meta en enero, anunciando planes para eliminar la verificación de hechos de terceros a favor de un programa basado en la comunidad en lo que describió como un esfuerzo para adoptar la libertad de expresión. La medida obtuvo elogios del presidente Trump.

Al igual que otros líderes tecnológicos, el jefe de Meta también cortejó el favor de Trump cuando regresó al cargo, reuniéndose con el presidente electo en Mar-a-Lago y anotando un asiento de primera fila para la inauguración.

Fuente

Related Articles

Back to top button