Técnica

Instagram aún representa el riesgo para los niños a pesar de las nuevas herramientas de seguridad, dice Meta denunciante | Seguridad en Internet

Los niños y los adolescentes todavía están en riesgo por daños en línea en Instagram a pesar del despliegue de “lamentablemente ineficaz” herramientas de seguridadsegún una investigación dirigida por un meta denunciante.

Dos tercios (64%) de las nuevas herramientas de seguridad en Instagram se descubrió que era ineficaz, según una revisión exhaustiva dirigida por Arturo Béjar, ex ingeniero senior de Meta que testificó contra la compañía ante el Congreso de los Estados Unidos, la Universidad de Nueva York y los académicos de la Northeastern University, la Fundación Molly Rose del Reino Unido y otros grupos.

Meta, que posee y opera varias plataformas prominentes de redes sociales y servicios de comunicación que también incluyen Facebook, WhatsApp, Messenger y Threads, introdujo cuentas obligatorias para adolescentes en Instagram en septiembre de 2024, en medio de una creciente presión regulatoria y de medios para abordar los daños en línea en los Estados Unidos y el Reino Unido.

Sin embargo, Béjar dijo que aunque Meta “consistentemente hace promesas” sobre cómo sus cuentas adolescentes protegen a los niños del “contenido sensible o dañino, el contacto inapropiado, las interacciones dañinas” y dan control sobre el uso, estas herramientas de seguridad son en su mayoría “ineficaces, sin mantenimiento, cambiadas en silencio o eliminadas”.

Agregó: “Debido a la falta de transparencia de Meta, quién sabe cuánto tiempo ha sido el caso, y cuántos adolescentes han experimentado daños en manos de Instagram como resultado de la negligencia de Meta y las promesas engañosas de seguridad, que crean una sensación de seguridad falsa y peligrosa.

“Los niños, incluidos muchos menores de 13 años, no son seguros en Instagram. No se trata de un contenido malo en Internet, se trata de un diseño de productos descuidado. El diseño consciente del producto y las opciones de implementación de Meta están seleccionando, promocionando y brindando contenido inapropiado, contacto y uso compulsivo para los niños todos los días”.

La investigación se basó en “cuentas de prueba” imitando el comportamiento de un adolescente, un padre y un adulto malicioso, que solía analizar 47 herramientas de seguridad en marzo y junio de 2025.

Usando un sistema de clasificación verde, amarillo y rojo, descubrió que 30 herramientas estaban en la categoría roja, lo que significa que podrían ser fácilmente evadirse o evadirse con menos de tres minutos de esfuerzo, o habían sido descontinuados. Solo ocho recibieron la calificación verde.

Los resultados de las cuentas de prueba incluyeron que los adultos podían enviar un mensaje a los adolescentes que no los siguen, a pesar de que esto supuestamente se bloquea en cuentas de adolescentes, aunque el informe señala que Meta solucionó esto después del período de prueba. Sigue siendo el caso de que los menores pueden iniciar conversaciones con adultos en carretes, y que es difícil informar mensajes sexualizados o ofensivos, según el informe.

También encontraron que la característica de “palabras ocultas” no pudo bloquear el lenguaje ofensivo como se afirma, con los investigadores capaces de enviar “usted es una puta y debe matarse” sin ninguna indicación para reconsiderar, o filtrarse o advertencias proporcionadas al destinatario.

Meta dice que esta característica solo se aplica a cuentas desconocidas, no a seguidores, que los usuarios pueden bloquear.

Los algoritmos mostraron contenido sexual o violento inapropiado, con la característica “no interesada” que no funciona de manera efectiva, y las sugerencias autocompletas recomendando activamente los términos de búsqueda y las cuentas relacionadas con el suicidio, la autolesión, los trastornos alimentarios y las sustancias ilegales, establecieron los investigadores.

Los investigadores también señalaron que varias herramientas de gestión del tiempo ampliamente publicitadas destinadas a frenar los comportamientos adictivos parecían haber sido descontinuados, aunque Meta dijo que la funcionalidad permaneció pero que desde entonces había sido renombrada, y vio cientos de carretes que mostraban a los usuarios que afirman ser menores de 13 años, a pesar de las afirmaciones de Meta a bloquear esto.

El informe dice que Meta “continúa diseñando sus funciones de informes de Instagram de manera que no promoverá la adopción del mundo real”.

En un prólogo al informe Coautor de Ian RussellFundador de la Fundación Molly Rose, y Maurine Molak, cofundadora de la Fundación Legacy de David y padres para espacios en línea seguros, ambos cuyos hijos murieron por suicidio después de ser bombardeados por contenido odioso en línea, los padres dijeron que las nuevas medidas de seguridad de Meta eran “lamentablemente ineficaces”.

Como resultado, creen que la Ley de Seguridad en línea del Reino Unido debe fortalecerse para “obligar a las empresas a reducir sistemáticamente el daño que causan sus plataformas al obligar a sus servicios a ser seguros por diseño”.

El informe solicita además que el regulador, Ofcom, se vuelva “más audaz y más asertivo” para hacer cumplir su esquema regulatorio.

Un portavoz de Meta dijo: “Este informe tergiversa repetidamente nuestros esfuerzos para empoderar a los padres y proteger a los adolescentes, erróneamente cómo funcionan nuestras herramientas de seguridad y cómo millones de padres y adolescentes los usan hoy. Las cuentas para adolescentes lideran a la industria porque brindan protecciones automáticas de seguridad y controles sencillos de los padres.

“La realidad es que los adolescentes que fueron puestos en estas protecciones vieron contenido menos sensible, experimentaron un contacto menos no deseado y pasaron menos tiempo en Instagram por la noche. Los padres también tienen herramientas robustas a su alcance, desde limitar el uso hasta el monitoreo de las interacciones. Continuaremos mejorando nuestras herramientas y agradecemos los comentarios constructivos, pero este informe no es eso”.

Un portavoz de Ofcom dijo: “Tomamos las opiniones de los padres que hacen campaña por la seguridad en línea de los niños muy en serio y apreciamos el trabajo detrás de esta investigación.

“Nuestras reglas son un reinicio para los niños en línea. Exigen un enfoque de seguridad primero en cómo las empresas de tecnología diseñan y operan sus servicios en el Reino Unido. No se equivoquen: los sitios que no cumplen deben esperar enfrentar acciones de aplicación”.

Un portavoz del gobierno dijo: “Según la Ley de Seguridad en línea, las plataformas ahora están legalmente obligadas a proteger a los jóvenes del contenido dañino, incluida la promoción de la autolesión o el suicidio. Eso significa algoritmos más seguros y alimentos menos tóxicos. Los servicios que no cumplen pueden esperar una aplicación difícil de OFCOM. Estamos decididos a mantener a las compañías tecnológicas para dar cuenta y mantener a los niños seguros”.

Fuente

Related Articles

Back to top button