Los creadores de chatbots de IA que pongan en riesgo a los niños se enfrentarán a fuertes multas o incluso verán bloqueados sus servicios en el Reino Unido en virtud de los cambios legales que anunciará Keir Starmer los lunes.
Alentado por la X de Elon Musk impedir que su herramienta Grok AI cree imágenes sexualizadas de personas reales en el Reino Unido Tras la indignación pública del mes pasado, los ministros están planeando una “represión contra el vil contenido ilegal creado por IA”.
Dado que cada vez más niños utilizan chatbots para todo, desde ayudar con las tareas escolares hasta apoyo a la salud mental, el gobierno dijo que “actuaría rápidamente para cerrar un vacío legal y obligar a todos los proveedores de chatbots de IA a cumplir con las obligaciones de contenido ilegal según la Ley de Seguridad en Línea o enfrentar las consecuencias de violar la ley”.
Starmer también planea acelerar nuevas restricciones al uso de las redes sociales por parte de los niños si son acordadas por los parlamentarios tras una consulta pública sobre una posible prohibición para los menores de 16 años. Esto significa que cualquier cambio en el uso de las redes sociales por parte de los niños, que podría incluir otras medidas como restringir el desplazamiento infinito, podría ocurrir tan pronto como este verano.
Pero los conservadores desestimaron la afirmación del gobierno de que estaba avanzando rápidamente y la consideraron “más humo y espejos”, ya que la consulta aún no ha comenzado.
“Afirmar que están tomando ‘medidas inmediatas’ simplemente no es creíble cuando la llamada consulta urgente ni siquiera existe”, dijo Laura Trott, secretaria de educación en la sombra. “El Partido Laborista ha declarado repetidamente que no tiene opinión sobre si se debe impedir que los menores de 16 años accedan a las redes sociales. Eso no es suficiente. Tengo claro que debemos impedir que los menores de 16 años accedan a estas plataformas”.
Las medidas se producen después de que el regulador en línea Ofcom admitiera que no tenía el poder de tomar medidas contra Grok porque las imágenes y videos creados por un chatbot sin que él buscara en Internet no están dentro del alcance de las leyes existentes a menos que constituyan pornografía. La medida para incluir los chatbots de IA bajo la Ley de Seguridad en Línea podría ocurrir en unas semanas, aunque la laguna jurídica se conoce desde hace más de dos años.
“La tecnología avanza muy rápidamente y la ley debe seguir el ritmo”, dijo Starmer. “La acción que tomamos respecto a Grok envió un mensaje claro de que ninguna plataforma tiene vía libre. Hoy estamos cerrando brechas que ponen a los niños en riesgo y sentando las bases para nuevas acciones”.
Las empresas que violen la Ley de Seguridad en Línea pueden enfrentar sanciones de hasta el 10% de los ingresos globales y los reguladores pueden acudir a los tribunales para bloquear su conexión en el Reino Unido.
Si los chatbots de IA se utilizan específicamente como motores de búsqueda, para producir pornografía u operar en contextos de usuario a usuario, ya están cubiertos por la ley. Pero pueden usarse para crear material que anime a las personas a autolesionarse o suicidarse, o incluso generar material de abuso sexual infantil, sin enfrentar sanciones. Éste es el vacío que el gobierno dice querer llenar.
El director ejecutivo de NSPCC, Chris Sherwood, dijo que los jóvenes se comunicaban con su línea de ayuda para informar sobre los daños causados por los chatbots de IA y que no confiaba en que las empresas de tecnología los diseñaran de forma segura.
En un caso, una niña de 14 años que habló con un chatbot de IA sobre sus hábitos alimentarios y su dismorfia corporal recibió información inexacta. En otros, vieron “jóvenes que se autolesionan, aunque reciben más contenido autolesivo”.
“Las redes sociales han producido enormes beneficios para los jóvenes, pero también mucho daño”, afirmó Sherwood. “La IA será así con esteroides si no tenemos cuidado”.
OpenAI, la startup de San Francisco de 500 mil millones de dólares detrás de ChatGPT, uno de los chatbots más populares del Reino Unido, y xAI, que fabrica Grok, fueron contactados para solicitar comentarios.
Desde que el californiano Adam Raine, de 16 años, se suicidó después, según afirma su familia, de “meses de estímulo por parte de ChatGPT”, OpenAI ha implementado controles parentales y está implementando tecnología de predicción de edad para restringir el acceso a contenido potencialmente dañino.
También se espera que el gobierno consulte sobre cómo obligar a las plataformas de redes sociales a imposibilitar a los usuarios enviar y recibir imágenes de niños desnudos, una práctica que ya es ilegal.
Liz Kendall, secretaria de tecnología, dijo: “No esperaremos a tomar las medidas que las familias necesitan, por lo que estamos endureciendo las reglas en torno a los chatbots de IA y estamos sentando las bases para que podamos actuar con ritmo en función de los resultados de la consulta sobre los jóvenes y las redes sociales”.
La Fundación Molly Rose, creada por el padre de Molly Russell, de 14 años, quien se quitó la vida después de ver contenido dañino en línea, calificó las medidas como “un pago inicial bienvenido”. Pero pidió al Primer Ministro que se comprometa con un nuevo proyecto de ley de seguridad en línea “que fortalezca la regulación y deje claro que la seguridad de los productos y el bienestar de los niños son el costo de hacer negocios en el Reino Unido”.
















