Las redes sociales aún empujan contenido relacionado con el suicidio a los adolescentes a pesar de las nuevas leyes de seguridad del Reino Unido | Seguridad en Internet

Las plataformas de redes sociales todavía están impulsando la depresión, el suicidio y el contenido relacionado con la autolesión a los adolescentes, a pesar de las nuevas leyes de seguridad en línea destinadas a proteger a los niños.
La Fundación Molly Rose abrió cuentas ficticias que se hacían pasar por una niña de 15 años, y luego se comprometieron con postes de suicidio, autolesiones y depresión. Esto llevó a los algoritmos a bombardear la cuenta con “un tsunami de contenido dañino en los carretes de Instagram y la página de Tiktok para usted”, según el análisis de la organización benéfica.
Casi todos los videos recomendados vistos en los carretes de Instagram (97%) y Tiktok (96%) fueron dañinos, mientras que más de la mitad (55%) de las publicaciones perjudiciales recomendadas en Tiktok’s para su página contenían referencias a suicidio y ideación de autocrush y el 16%referidos métodos suicidas, incluidos algunos que los investigadores nunca antes habían encontrado.
Estas publicaciones también llegaron al público enorme: uno de cada 10 videos dañinos en la página de Tiktok para tu se había gustado al menos 1 millones de veces, y en los carretes de Instagram, uno de cada cinco videos recomendados dañinos se les había gustado más de 250,000 veces.
Andy Burrows, director ejecutivo de La Fundación Molly Rose dijo: “Los algoritmos dañinos continúan bombardeando a los adolescentes con niveles impactantes de contenido dañino, y en las plataformas más populares para los jóvenes que esto puede suceder a escala industrial.
“Es impactante que en los dos años desde la última vez que realizamos esta investigación, la escala de daño aún no se ha abordado adecuadamente, y en Tiktok los riesgos han empeorado activamente.
“Las medidas establecidas por Ofcom para abordar el daño algorítmico son, en el mejor de los casos, un yeso y no serán suficientes para abordar el daño prevenible. Es crucial que el gobierno y el regulador actúen de manera decisiva para traer medidas mucho más fuertes que las plataformas no pueden jugar ni ignorar”.
Los investigadores, que analizaron contenido en las plataformas entre noviembre de 2024 y marzo de 2025, encontraron que aunque ambas plataformas habían permitido a los adolescentes ofrecer comentarios negativos sobre el contenido que se les recomendaba, según lo requerido por Ofcom bajo la Ley de Seguridad en línea, esta función también les permitió dar retroalimentación positiva sobre el mismo contenido, lo que resultó en que se haya mostrado más de ella.
La fundación informeproducido en asociación con Bright Data, establecidos que, si bien las plataformas habían tomado medidas para dificultar la búsqueda de contenido peligroso utilizando hashtags, sistemas de recomendación de IA personalizados amplificando contenido dañino una vez que esto se había visto, agregaron. El informe señaló además que las plataformas tienden a usar sobre definiciones estrechas de daño.
La investigación citó evidencia creciente de la relación entre la exposición al contenido en línea dañino y los riesgos de suicidio y autolesión resultantes.
También descubrió que las plataformas de redes sociales se benefician de la publicidad adyacente a algunas publicaciones dañinas, incluso para marcas de moda y comida rápida populares entre los adolescentes y las universidades del Reino Unido.
Ofcom ha comenzado a implementar los códigos de seguridad de los niños de la Ley de Seguridad en línea, que están destinadas a “domar los algoritmos tóxicos”. La Fundación Molly Rose, que recibe fondos de Meta, le preocupa que el regulador haya recomendado que las plataformas gasten solo £ 80,000 para corregirlos.
Un portavoz de Ofcom dijo: “El cambio está sucediendo. Dado que esta investigación se llevó a cabo, nuestras nuevas medidas para proteger a los niños en línea han entrado en vigor. Esto hará una diferencia significativa para los niños, ayudando a prevenir la exposición a los contenidos más dañinos, incluidos el suicidio y el material de la autolesión. Y por primera vez, los servicios serán requeridos por la ley a algoritmos tóxicos”.
El secretario de tecnología, Peter Kyle, dijo que desde que entró en vigencia la Ley de Seguridad en línea, 45 sitios están bajo investigación. “Ofcom también está considerando cómo fortalecer las medidas existentes, incluso al proponer que las empresas usen tecnología proactiva para proteger a los niños del contenido de autolesión y que los sitios van más allá de hacer que los algoritmos sean seguros”, agregó.
Un portavoz de Tiktok dijo: “Las cuentas adolescentes sobre Tiktok tienen más de 50 características y configuraciones diseñadas para ayudarlos a expresarse, descubrir y aprender de manera segura, y los padres pueden personalizar aún más 20 contenidos y configuraciones de privacidad a través de la pareja familiar. Con más del 99% de contenido de violación proactivamente por Tiktok, los hallazgos no reflejan la experiencia real de las personas en nuestra plataforma, lo que admite el informe”. “.”. “.”. “.”. “.”. “.”.
Un portavoz de Meta dijo: “No estamos de acuerdo con las afirmaciones de este informe y la metodología limitada detrás de él.
“Decenas de millones de adolescentes están ahora en las cuentas de los adolescentes de Instagram, que ofrecen protecciones incorporadas que limitan quién puede contactarlos, el contenido que ven y el tiempo que pasan en Instagram. Continuamos utilizando tecnología automatizada para eliminar el contenido alentando el suicidio y la auto-lesión, con un 99% de manera proactiva antes de ser informadas a nosotros. Desarrollamos cuentas para adolescentes para ayudar a proteger a los adolescentes en línea y continuar trabajando sin embargo, con el 99% de manera proactiva.