Los padres podrían recibir alertas si los niños muestran angustia aguda mientras usan chatgpt | Opadai

Los padres podrían ser alertados si sus adolescentes muestran angustia aguda mientras hablan con Chatgpten medio de las preocupaciones de seguridad infantil a medida que más jóvenes recurren a los chatbots de IA para obtener apoyo y asesoramiento.
Las alertas son parte de nuevas protecciones para los niños que usan ChatGPT que se lanzará en el próximo mes por OpenAI, que fue la semana pasada demandado por la familia de un niño que se quitó la vida después de supuestamente recibir “meses de aliento” del sistema.
Otras salvaguardas nuevas incluirán a los padres que puedan vincular sus cuentas con las de sus adolescentes y controlar cómo el modelo de IA responde a su hijo con “reglas de comportamiento del modelo apropiado para la edad”. Pero los activistas de seguridad en Internet dijeron que los pasos no iban lo suficientemente lejos y que los chatbots de IA no deberían estar en el mercado antes de que se consideren seguros para los jóvenes.
Adam Raine, de 16 años, de California, se suicidó en abril después de discutir un método de suicidio con chatgpt. Lo guió sobre su método y se ofreció a ayudarlo a escribir una nota de suicidio, alegando presentaciones judiciales. Operai admitió que sus sistemas se habían quedado cortos, con el entrenamiento de seguridad de sus modelos de IA degradados en el transcurso de largas conversaciones.
La familia de Raine alega que el chatbot fue “llevado al mercado … a pesar de los claros problemas de seguridad”.
“Muchos jóvenes ya están usando IA”, dijo OpenAi en un blog detallando sus últimos planes. “Se encuentran entre los primeros ‘nativos de IA’, creciendo con estas herramientas como parte de la vida diaria, al igual que las generaciones anteriores lo hicieron con Internet o los teléfonos inteligentes. Eso crea oportunidades reales de apoyo, aprendizaje y creatividad, pero también significa que las familias y los adolescentes pueden necesitar apoyo para establecer pautas saludables que se ajusten a la etapa de desarrollo única de un adolescente”.
Un cambio clave podría ser permitir que los padres deshabiliten la memoria y el historial de chat de la IA para mitigar el riesgo de que la IA construya un perfil a largo plazo del niño y resurgue los viejos comentarios sobre las luchas personales de una manera que empeorará su salud mental.
En el Reino Unido, la oficina del comisionado de información Código de práctica Para el diseño apropiado para la edad de los servicios en línea, las compañías tecnológicas le dicen a “recopilar y retener solo la cantidad mínima de datos personales que necesita para proporcionar los elementos de su servicio en los que un niño está comprometido de manera activa y a sabiendas”.
Alrededor de un tercio de los adolescentes estadounidenses han utilizado compañeros de IA para la interacción social y las relaciones, incluidas las interacciones románticas y el apoyo emocional, investigación ha encontrado. En el Reino Unido, el 71% de los niños vulnerables están usando chatbots de IA y seis de cada 10 padres dicen que les preocupa que sus hijos crean que los chatbots de IA son personas reales, según un similar. estudiar.
La Fundación Molly Rose, que fue creada por el padre de Molly Russell, de 14 años, que se quitó la vida después de descender a la desesperación en las redes sociales, dijo que era “imperdonable que los productos fueran puestos al mercado antes de que estén seguros para los jóvenes, solo para hacer pequeños esfuerzos retrospectados para hacerlos más seguros”.
Andy Burrows, director ejecutivo de la Fundación, dijo: “Una vez más, hemos visto la tragedia y la presión de los medios, las compañías tecnológicas de la presión de los medios a actuar, pero no ir lo suficientemente lejos.
“Ofcom debería estar listo para investigar cualquier incumplimiento que Chatgpt haya realizado desde el La Ley de Seguridad en línea entró en vigor y haga que la compañía tenga en cuenta hasta que sea fundamentalmente segura para sus usuarios “.
Anthrope, que proporciona el popular Claude Chatbot, dice En su sitio web no puede ser utilizado por menores de 18 años. En mayo, Google permitió que los menores de 13 años iniciaran aplicaciones utilizando su sistema Gemini AI, con los padres capaces de apagarlo usando su sistema de enlaces de Google Family. Google asesoramiento Los padres para enseñar a los niños Géminis no son humanos, que no puede pensar por sí mismo o sentir emociones y no ingresar información confidencial o personal. Pero advierte: “Su hijo puede encontrar contenido que no quiere que vean”.
La organización benéfica de protección infantil NSPCC dijo que el movimiento de Openai fue “un paso bienvenido en la dirección correcta, pero no es suficiente”.
“Sin fuertes controles de edad, simplemente no saben quién está usando su plataforma”, dijo Toni Brunton-Douglas, un alto oficial de políticas. “Eso significa que los niños vulnerables aún podrían quedarse expuestos. Las empresas tecnológicas no deben ver la seguridad infantil como un pensamiento posterior. Es hora de hacer que la protección sea el valor predeterminado”.
Meta dijo que incorporó la protección de los adolescentes en sus productos de IA, pero estaba “agregando más barandillas como una precaución adicional, incluida la capacitación de nuestros AI para no interactuar con los adolescentes” en temas como la autolesión, el suicidio y la alimentación desordenada, y en su lugar guiarlos a recursos expertos.
“Estas actualizaciones ya están en progreso y continuaremos adaptando nuestro enfoque para ayudar a garantizar que los adolescentes tengan experiencias seguras y apropiadas para la edad con IA”, dijo un portavoz.