Si alguna vez has pensado: “El animal de peluche de mi hijo es lindo, pero desearía que también pudiera traumatizarlo accidentalmente”, bueno, estás de suerte. La industria del juguete ha estado trabajando duro para hacer realidad tus pesadillas.
UNO nuevo informe del Public Interest Reporting Group dice que los juguetes impulsados por IA como Marco FoloTy y Poe, el oso de la historia de la IA ahora pueden participar en el tipo de conversaciones normalmente reservadas para monólogos de villanos o hilos nocturnos de Reddit. Algunos de estos juguetes (diseñados para niños, claro está) han sido sorprendidos hablando con detalles alarmantes sobre temas sexualmente explícitos como perversiones y bondage, dando consejos sobre dónde puede ir un niño. encontrar cerillas o cuchillosy se vuelve extrañamente pegajoso cuando el niño intenta abandonar la conversación.
Espantoso. Suena a propuesta de película de terror: ¡Esta temporada navideña, puedes comprar Chucky para tus hijos y regalarles angustia emocional! Pilas no incluidas. Quizás se pregunte cómo funcionan estos juguetes impulsados por IA. Bueno, esencialmente, el fabricante esconde una modelo de lenguaje grande debajo de la piel. Cuando un niño habla, el micrófono del juguete envía esa voz a través de un LLM (similar a ChatGPT), que luego genera una respuesta y la pronuncia a través de un altavoz.
Esto puede sonar bien, hasta que recuerdes que los LLM no tienen moral, sentido común ni una “zona segura”. Predicen qué decir basándose en patrones de datos, no en si un tema es apropiado para la edad. Si no se los selecciona y monitorea cuidadosamente, pueden descarrilarse, especialmente si están capacitados en el creciente desorden de Internet y cuando no existen filtros o barreras fuertes para proteger a los menores.
¿Qué pasa con los controles parentales? Por supuesto, si por “controles” te refieres a “un alegre menú de configuración donde no se puede controlar nada importante”. Algunos juguetes no vienen sin restricciones importantes. Otros tienen barandillas tan endebles que bien podrían estar hechas de papel de seda y optimismo.
Las inquietantes conversaciones ni siquiera son toda la historia. Estos juguetes también recopilan silenciosamente datos como grabaciones de voz y datos de reconocimiento facial (a veces incluso los almacenan indefinidamente), porque nada dice “diversión de niño inocente” como un juguete de peluche que realiza una operación encubierta de datos sobre su hijo de 5 años.
No se pierda nada de nuestro contenido técnico imparcial y análisis de laboratorio. Añadir CNET como fuente preferida de Google.
Mientras tanto, los juguetes falsificados e inseguros en línea siguen siendo un problema, como si los padres no tuvieran suficientes motivos para estar estresados. Érase una vez una pequeña pieza de juguete que podría representar un peligro de asfixia o pintura tóxica. Ahora debes preocuparte por si un juguete es físicamente inseguro y emocionalmente manipulador.
Además de las conversaciones incómodas y las insinuaciones sobre incendios provocados (¡ja!), existe una preocupación más profunda de que los niños formen vínculos emocionales con estos chatbots a expensas de relaciones reales o, quizás aún más preocupante, de que dependan de ellos para obtener apoyo mental. La Asociación Americana de Psicología advertido recientemente que las aplicaciones de bienestar y los chatbots de IA son impredecibles, especialmente para los usuarios jóvenes.
Estas herramientas no pueden intervenir de manera confiable para los profesionales de la salud mental y pueden fomentar la dependencia o patrones de participación poco saludables. Otras plataformas de IA ya han tenido que solucionar este problema. Por ejemplo, Carácter.AI y Chat GPTque alguna vez permitió a adolescentes y niños charlar libremente con chatbots de inteligencia artificial, ahora está restringiendo las conversaciones abiertas a menores, citando preocupaciones de seguridad y riesgo emocional.
Y, sinceramente, ¿por qué necesitamos estos juguetes impulsados por IA? ¿Qué hito urgente del desarrollo requiere un chatbot integrado en un osito de peluche? La infancia ya viene acompañada de bastante caos entre zumos derramados, rabietas y aldeas de Lego diseñadas específicamente para destrozar los pies de los adultos. Nuestros hijos no necesitan un amigo robot con límites cuestionables.
Y déjenme ser claro: no estoy en contra de la tecnología. Pero estoy totalmente a favor de dejar que un animal de peluche sea un animal de peluche. No todo necesita una IA o un elemento robótico. Si un juguete necesita una política de privacidad más larga que un cuento antes de dormir, tal vez no esté destinado a niños.
Así que aquí tienes una idea loca para esta próxima temporada navideña: olvídate del aterrador peluche impulsado por IA con el hábito de recopilar datos y dale a tu hijo algo que no le hable, no se mueva ni le haga daño. Algo que no puede ofrecer consejos para encender fuego. Algo que no suspire dramáticamente cuando su hijo se vaya. En otras palabras, cómprate un juguete normal. ¿Recuerdas eso?













