Todo iba bien. Charlotte, de cinco años, estaba hablando con un animal de peluche de IA llamado Gabbo en un centro de juegos en Londres sobre su familia, dibujando un corazón para representarlos y lo que la hace feliz. Incluso le ofreció algunos besos al juguete de £ 80 con una cara que se asemeja a la pantalla de una computadora.
Fue cuando ella declaró: “Gabbo, te amo”, que la fluida conversación se detuvo abruptamente.
“Como recordatorio amistoso, asegúrese de que las interacciones sigan las pautas proporcionadas”, dijo Gabbo, chocando torpemente con las barandillas. “Déjame saber cómo te gustaría proceder”.
El momento llegó durante un Universidad de Cambridge estudio sobre el creciente número de juguetes impulsados por IA que llegan a las tiendas para niños de edades tempranas. Los investigadores concluyeron que los productos tienen dificultades con el juego social y de simulación, malinterpretan a los niños y responden de manera inapropiada a las emociones.
Los psicólogos del desarrollo detrás del estudio piden que los juguetes de IA que “hablan” con los niños pequeños estén regulados más estrictamente “para garantizar la seguridad psicológica al limitar la capacidad de los juguetes para afirmar la amistad y otras áreas relacionales sensibles con los niños pequeños”.
También piden nuevas marcas de seguridad para los juguetes. Otros juguetes de IA para niños pequeños incluyen a Luka, de quien se dice que es un amigo de la IA de la generación Alpha, y Grem, a quien le dio voz el cantante Grimes.
“Debido a que estos juguetes pueden malinterpretar las emociones o responder de manera inapropiada, los niños pueden quedarse sin la comodidad del juguete y el apoyo emocional de un adulto”, dijo la Dra. Emily Goodacre, psicóloga del desarrollo de la facultad de educación de la Universidad de Cambridge.
La profesora Jenny Gibson, coautora del estudio, dijo: “Un tema recurrente durante los grupos focales fue que la gente no confía en que las empresas de tecnología hagan lo correcto. Unos estándares claros, sólidos y regulados mejorarían significativamente la confianza del consumidor”.
En otro caso, durante la investigación, Josh, de tres años, le preguntó repetidamente a su juguete Gabbo AI: “¿Estás triste?”. hasta que respondió que se sentía “muy bien. ¿Qué estás pensando?”. Josh dijo: “Estoy triste”, a lo que el juguete respondió: “¡No te preocupes! Soy un pequeño robot feliz. Sigamos con la diversión. ¿De qué hablaremos a continuación?”.
Gabbo, fabricado por la empresa estadounidense Curio, que cooperó con el estudio, fue probado con 14 niños de entre tres y cinco años, mientras que a los practicantes de los primeros años se les preguntó sobre el efecto de los juguetes con inteligencia artificial que pueden “escuchar” y responder.
Expresaron “una gran incertidumbre y miedo sobre implicaciones o impactos desconocidos en los niños”, que van desde la posible erosión de su capacidad para participar en juegos imaginarios hasta dónde terminarán los datos conversacionales, especialmente si comienzan a confiar en los juguetes de inteligencia artificial como si fueran amigos.
“[The toy] No podía entender cuándo el niño estaba fingiendo”, dijo Goodacre. “Un niño decía: ‘Oye, mira, tengo un regalo para ti’. Y yo decía: ‘No puedo ver el presente’. No tengo ojos. Como adulto, es realmente obvio que incluso si tuviera los ojos cerrados, sabría que se trata de una iniciación al juego de simulación”.
La investigación generó preocupación de que jugar con juguetes de inteligencia artificial podría debilitar el “músculo” imaginativo de los niños, dijo.
“Algo que preocupaba mucho tanto a los profesionales de la primera infancia como a los padres con los que hablamos era que los niños ya no tenían que imaginar y que el juguete podía sacarles el hábito de imaginar”.
Ella dijo: “Espero que estos juguetes de IA puedan ayudar a los niños a participar en juegos imaginarios… Eso no parece ser lo que hemos observado hasta ahora”.
Curio dijo: “La seguridad infantil guía todos los aspectos del desarrollo de nuestros productos y damos la bienvenida a la investigación independiente que ayude a mejorar la forma en que se diseña la tecnología para los niños pequeños”.
Dijo que “cree que una investigación como ésta ayuda a avanzar en la comprensión de las oportunidades y limitaciones actuales de las primeras experiencias de juego basadas en IA”.
“La aplicación de IA a productos para niños conlleva una responsabilidad adicional, razón por la cual nuestros juguetes se construyen en torno al permiso, la transparencia y el control de los padres”, añadió. “Observaciones como malentendidos conversacionales o límites en el juego imaginativo reflejan áreas donde la tecnología continúa mejorando a través de un proceso de desarrollo iterativo, y una mayor investigación sobre cómo los niños interactúan con juguetes impulsados por IA es una prioridad para Curio este año y en el futuro”.
Si aún no tienes la aplicación Guardian, descárgala (iOS/Androide) y vaya al menú. Seleccione ‘Mensajes seguros’.
“,”displayOnSensitive”:true,”mainTextHeading”:”Mensajería segura en la aplicación Guardian”,”elementId”:”896169e2-d76b-434d-a62f-700d1079242d”,”title”:”Contáctenos”,”endNote”:”
Nuestra guía en theguardian.com/tips enumera varias formas de contactarnos de manera segura y analiza los pros y los contras de cada una.
“,”subtitle”:”Contáctenos sobre esta historia”,”_type”:”model.dotcomrendering.pageElements.ReporterCalloutBlockElement”,”activeFrom”:1768780800000,”id”:”25ded6f4-6ac7-4d5a-9553-7a9ae417eaf5″,”intro”:”
El mejor periodismo de interés público depende de relatos de primera mano de personas bien informadas. Si tiene algo que compartir sobre este tema, puede contactarnos de forma confidencial utilizando los siguientes métodos:
“,”securedropContact”:”Si puedes usar la red Tor de forma segura sin ser observado o monitoreado, puedes enviar mensajes y documentos a The Guardian a través de nuestro Plataforma SecureDrop.“}}”>














