Noticias

El Senado de California pasa un proyecto de ley que tiene como objetivo hacer que los chatbots de IA sean más seguros

Los legisladores de California se acercaron el martes un paso más a colocar más barandillas en torno a chatbots artificiales con inteligencia.

El Senado aprobó un proyecto de ley que tiene como objetivo hacer que los chatbots usados ​​para la compañía sean más seguros después de que los padres expresaron su preocupación de que los personajes virtuales dañaron la salud mental de sus niños.

La legislación, que ahora se dirige a la Asamblea del Estado de California, muestra cómo los legisladores estatales están abordando las preocupaciones de seguridad que rodean la IA a medida que las compañías tecnológicas liberan más herramientas con AI.

“El país está observando nuevamente que California lidere”, dijo el senador Steve Padilla (D-Chula Vista), uno de los legisladores que introdujo el proyecto de ley en el piso del Senado.

Al mismo tiempo, los legisladores están tratando de equilibrar las preocupaciones de que podrían estar obstaculizando la innovación. Los grupos opuestos al proyecto de ley, como la Fundación Electronic Frontier, dicen que la legislación es demasiado amplia y se encontraría con problemas de libertad de expresión, según un análisis del proyecto de ley del Senado.

Según el Proyecto de Ley 243 del Senado, los operadores de plataformas de chatbot complementarias recordarían a los usuarios al menos cada tres horas que los personajes virtuales no son humanos. También revelarían que los chatbots complementarios podrían no ser adecuados para algunos menores.

Las plataformas también deberían tomar otros pasos, como implementar un protocolo para abordar la ideación suicida, el suicidio o el autolesión expresado por los usuarios. Eso incluye mostrar a los usuarios recursos de prevención del suicidio.

Recursos de prevención de suicidios y asesoramiento de crisis

Si usted o alguien que conoce está luchando con pensamientos suicidas, busque ayuda de un profesional y llame al 9-8-8. La primera línea directa de crisis de salud mental de tres dígitos de los Estados Unidos 988 conectará a las personas que llaman con asesores de salud mental capacitados. Texto “Inicio” a 741741 en los Estados Unidos y Canadá para llegar a Línea de texto de crisis.

El operador de estas plataformas también informaría la cantidad de veces que un chatbot complementario mencionó la ideación del suicidio o las acciones con un usuario, junto con otros requisitos.

La Dra. Akilah Weber Pierson, uno de los coautores del proyecto de ley, dijo que apoya la innovación, pero también debe venir con “responsabilidad ética”. Los chatbots, dijo el senador, están diseñados para mantener la atención de las personas, incluidos los niños.

“Cuando un niño comienza a preferir interactuar con la IA sobre las relaciones humanas reales, eso es muy preocupante”, dijo el senador Weber Pierson (D-La Mesa).

El proyecto de ley define los chatbots complementarios como sistemas de IA capaces de satisfacer las necesidades sociales de los usuarios. Excluye los chatbots que las empresas usan para el servicio al cliente.

La legislación obtuvo el apoyo de los padres que perdieron a sus hijos después de que comenzaron a charlar con chatbots. Uno de esos padres es Megan García, una madre de Florida que demandó a Google y el personaje.

En la demanda, alega que los chatbots de la plataforma dañaron la salud mental de su hijo y no lograron notificarle su ayuda cuando expresó pensamientos suicidas a estos personajes virtuales.

Personaje.Aicon sede en Menlo Park, California, es una plataforma donde las personas pueden crear e interactuar con personajes digitales que imitan a las personas reales y ficticias. La compañía ha dicho que se toma en serio la seguridad de los adolescentes y implementó una característica que brinda a los padres más información sobre la cantidad de tiempo que sus hijos pasan con chatbots en la plataforma.

El carácter .i pidió a un tribunal federal que desestimara la demanda, pero un juez federal en mayo permitió que el caso continuara.

Fuente

Related Articles

Back to top button