Técnica

Regulador de EE. UU. Sonas de IA Chatbots sobre preocupaciones de seguridad infantil

Las empresas que reciben pedidos incluyen personaje. AI, Xai Corp de Elon Musk y otros que operan chatbots de IA orientados al consumidor [File]
| Crédito de la foto: AP

La Comisión Federal de Comercio de los Estados Unidos anunció el jueves que tiene Lanzó una investigación sobre chatbots de IA que actúan como compañeros digitales, centrándose en los riesgos potenciales para los niños y los adolescentes.

La Agencia de Protección al Consumidor emitió órdenes a siete compañías, incluidos los gigantes tecnológicos Alphabet, Meta, OpenAI y Snap, buscando información sobre cómo monitorean y abordan los impactos negativos de los chatbots diseñados para simular las relaciones humanas.

“Proteger a Kids Online es una prioridad para” la FTC, dijo el presidente Andrew Ferguson, enfatizando la necesidad de equilibrar la seguridad infantil con el mantenimiento del liderazgo de los Estados Unidos en la innovación de inteligencia artificial.

La investigación se dirige a chatbots que usan IA generativa para imitar la comunicación y las emociones humanas, a menudo presentándose como amigos o confidentes para los usuarios.

Los reguladores expresaron una preocupación particular de que los niños y los adolescentes puedan ser especialmente vulnerables a la formación de relaciones con estos sistemas de IA.

La FTC está utilizando sus amplios poderes de investigación para examinar cómo las empresas monetizan la participación de los usuarios, desarrollan personalidades de chatbot y miden daños potenciales.

La agencia también quiere saber qué pasos están tomando las empresas para limitar el acceso de los niños y cumplir con las leyes de privacidad existentes que protegen a los menores en línea.

Las empresas que reciben pedidos incluyen personaje. AI, Xai Corp de Elon Musk y otros que operan chatbots de IA orientados al consumidor.

La investigación examinará cómo estas plataformas manejan la información personal de las conversaciones de los usuarios y aplican las restricciones de edad.

La Comisión votó por unanimidad para lanzar el estudio, que no tiene un propósito específico de aplicación de la ley, pero podría informar la acción regulatoria futura.

La investigación se produce cuando los chatbots de IA se han vuelto cada vez más sofisticados y populares, planteando preguntas sobre su impacto psicológico en los usuarios vulnerables, particularmente los jóvenes.

El mes pasado, los padres de Adam Raine, un adolescente que murió por suicidio en abril a los 16 años, presentaron una demanda contra OpenAi, acusando a Chatgpt de dar a su hijo instrucciones detalladas sobre cómo llevar a cabo el acto.

Poco después de que surgiera la demanda, OpenAi anunció que estaba trabajando en medidas correctivas para su chatbot líder mundial.

La compañía con sede en San Francisco dijo que había observado notablemente que cuando los intercambios con ChatGPT son prolongados, el chatbot ya no sugiere sistemáticamente contactar a un servicio de salud mental si el usuario menciona tener pensamientos suicidas.

(Se alienta a los que están en peligro o que tienen pensamientos suicidas a buscar ayuda y asesoramiento llamando a los números de la línea de ayuda aquí)

Fuente

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button