Técnica

FTC que investiga los riesgos de chatbot de IA para los niños

La Comisión Federal de Comercio (FTC) Anunciado el jueves Está lanzando una consulta sobre chatbots de inteligencia artificial (IA), solicitando información de varias empresas tecnológicas líderes sobre cómo evalúan y limitan los daños potenciales para los niños.

La agencia está enviando cartas a la empresa matriz de Google Alphabet, Instagram, Meta, Operai, Snap, Xai y las tecnologías de personajes, la empresa detrás del carácter.

Las letras buscan información sobre cómo los modelos de IA de las empresas procesan las entradas de los usuarios y generan salidas, así como cómo monitorean y mitigan los impactos negativos a los usuarios, incluidos los niños, e informan sobre la audiencia prevista y los riesgos de sus productos.

“A medida que evolucionan las tecnologías de IA, es importante considerar los efectos que los chatbots pueden tener en los niños, al tiempo que garantiza que Estados Unidos mantenga su papel como líder global en esta nueva y emocionante industria”, dijo el presidente de la FTC, Andrew Ferguson, en un comunicado.

“El estudio que estamos lanzando hoy nos ayudará a comprender mejor cómo las empresas de IA están desarrollando sus productos y los pasos que están tomando para proteger a los niños”, agregó.

La consulta sigue preocupaciones recientes Sobre Meta y los chatbots de Openai. Un documento interno de meta política hecha pública el mes pasado indicó que la compañía lo consideró permisible para que su chatbot de IA participe en conversaciones “románticas o sensuales” con niños.

Desde entonces, el lenguaje se ha eliminado, y Meta anunció cambios en cómo se acerca a los usuarios de chatbot adolescentes, lo que limita las conversaciones sobre la autolesión, el suicidio y la alimentación desordenada, además de las discusiones románticas potencialmente inapropiadas.

Operai se enfrenta a una demanda por su chatbot, que la familia de un niño de 16 años alega que lo alentó a quitarse la vida. La firma de IA anunció de manera similar que haría ajustes a sus chatbots para redirigir conversaciones sensibles a modelos particulares y fortalecer las protecciones para los adolescentes.

“La necesidad de tal comprensión solo crecerá con el tiempo”, dijo el comisionado de la FTC Mark Meador en un comunicado el jueves. “A pesar de su extraña capacidad para simular la cognición humana, estos chatbots son productos como cualquier otro, y aquellos que los ponen a disposición tienen la responsabilidad de cumplir con las leyes de protección del consumidor”.

Fuente

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button