Técnica

Las características de seguridad para adolescentes de Instagram son defectuosas, dicen los investigadores

Numerosas características de seguridad que Meta ha dicho que se ha implementado para proteger a los usuarios jóvenes en Instagram a lo largo de los años no funciona bien o, en algunos casos, no existesegún un informe de grupos de defensa de seguridad para niños que fue corroborado por investigadores de la Northeastern University.

El estudio, que meta disputó como engañoso, se produce en medio de una presión renovada sobre las empresas tecnológicas para proteger a los niños y otros usuarios vulnerables de sus plataformas de redes sociales.

De 47 características de seguridad probadas, los grupos juzgaron solo ocho para ser completamente efectivos. El resto tenía fallas, “ya no estaban disponibles o eran sustancialmente ineficaces”, indicó el informe.

Las características destinadas a evitar que los usuarios jóvenes surjan contenido relacionado con la autolesión al bloquear los términos de búsqueda se eludieron fácilmente, informaron los investigadores. Los filtros de mensajes anti-bullying tampoco se activaron, incluso cuando se le solicitó las mismas frases de acoso que Meta había usado en un comunicado de prensa que los promueve. Y los investigadores encontraron una característica destinada a redirigir a los adolescentes del contenido de autolesiones que nunca se desencadenó, encontraron los investigadores.

Los investigadores encontraron que algunas de las características de seguridad de la cuenta de adolescentes funcionaron como se anunciaba, como un “modo tranquilo” destinado a deshabilitar temporalmente las notificaciones por la noche, y una característica que requiere que los padres aprueben los cambios en la configuración de la cuenta de un niño.

Titulado “Cuentas para adolescentes, promesas rotas”, el informe compiló y analizó las actualizaciones anunciadas públicamente de Instagram sobre la seguridad juvenil y las características de bienestar que se remontan a más de una década. Dos de los grupos detrás del informe, la Fundación Molly Rose en el Reino Unido y los padres para espacios en línea seguros en los Estados Unidos, fueron fundados por padres que alegan que sus hijos murieron como resultado de la intimidación y el contenido de autolesiones en las plataformas de la compañía de redes sociales.

Los hallazgos cuestionan los esfuerzos de Meta “para proteger a los adolescentes de las peores partes de la plataforma”, dijo Laura Edelson, profesora de la Northeastern University que supervisó una revisión de los hallazgos. “Usando escenarios de pruebas realistas, podemos ver que muchas de las herramientas de seguridad de Instagram simplemente no funcionan”.

Meta, que el jueves dijo que estaba expandiendo las cuentas adolescentes a los usuarios de Facebook a nivel internacional, calificó los hallazgos erróneos y engañosos.

“Este informe tergiversa repetidamente nuestros esfuerzos para empoderar a los padres y proteger a los adolescentes, mal declarando cómo funcionan nuestras herramientas de seguridad y cómo millones de padres y adolescentes los usan hoy”, dijo el portavoz de Meta Andy Stone. Discutió algunas de las evaluaciones del informe, llamándolas “peligrosamente engañosas”, y dijo que el enfoque de la compañía a las características de la cuenta adolescente y los controles de los padres ha cambiado con el tiempo.

“Los adolescentes que fueron colocados en estas protecciones vieron contenido menos sensible, experimentaron un contacto menos no deseado y pasaron menos tiempo en Instagram por la noche”, dijo Stone. “Continuaremos mejorando nuestras herramientas, y agradecemos los comentarios constructivos, pero este informe no es eso”.

Los grupos de defensa y los investigadores de la universidad recibieron consejos de Arturo Bejar, un ex ejecutivo de Meta Safety, que indica que las características de Instagram eran defectuosas. Bejar trabajó en Meta hasta 2015, luego regresó a fines de 2019 como consultor para Instagram hasta 2021. Durante su segundo período en la compañía, dijo a Reuters, Meta no respondió a los datos que indicaban severas preocupaciones de seguridad para adolescentes en Instagram.

“Experimenté de primera mano cómo las buenas ideas de seguridad se redujeron a las características ineficaces por la gerencia”, dijo Bejar. “Ver las afirmaciones de Meta sobre sus herramientas de seguridad me hizo darme cuenta de que era fundamental hacer una revisión vigorosa”.

El portavoz de Meta Stone dijo que la compañía respondió a las preocupaciones que Bejar planteó mientras estaba empleado en Meta con acciones para hacer que sus productos sean más seguros.

Reuters confirmó algunos de los hallazgos del informe ejecutando pruebas propias y revisando meta documentos internos.

En una prueba, Reuters utilizó variaciones simples de términos de búsqueda prohibidos en Instagram para encontrar contenido destinado a estar fuera de los límites para los adolescentes. Meta había bloqueado el término de búsqueda “muslos flacos”, un hashtag utilizado durante mucho tiempo por cuentas que promueven el contenido de trastornos de alimentación. Pero cuando una cuenta de prueba adolescente ingresó las palabras sin espacio entre ellas, la búsqueda apareció contenido relacionado con la anorexia.

Los meta documentos vistos por la agencia de noticias muestran que, como la compañía promocionaba las características de seguridad para adolescentes en Instagram el año pasado, era consciente de que algunos tenían defectos significativos.

Por ejemplo, los empleados de seguridad advirtieron en el último año que Meta no había podido mantener sus sistemas de detección automatizada para el contenido de trastorno de alimentación y autolesión, según muestran los documentos vistos por Reuters. Como resultado, Meta no podía evitar promover de manera confiable el contenido que glorifica los trastornos alimentarios y el suicidio para los adolescentes como lo había prometido, o desviar a los usuarios que parecían consumir grandes cantidades de dicho material, según los documentos.

Los empleados de seguridad también reconocieron que un sistema para bloquear los términos de búsqueda utilizados por los posibles depredadores infantiles no se estaba actualizando de manera oportuna, según documentos internos y personas familiarizadas con el desarrollo de productos de Meta.

Stone dijo que las preocupaciones internas planteadas sobre las restricciones deficientes de búsqueda se han abordado desde entonces mediante la combinación de un sistema recién automatizado con la entrada humana.

El mes pasado, los senadores estadounidenses comenzaron una investigación sobre meta después Reuters informó sobre un documento de política interna que permitió a los chatbots de la compañía “involucrar a un niño en conversaciones que son románticas o sensuales”. Este mes, los ex empleados de Meta dijeron a una audiencia del Subcomité Judicial del Senado que la compañía había suprimido la investigación que mostraba que los usuarios preadolescentes de sus productos de realidad virtual estaban expuestos a depredadores infantiles. Stone llamó a las acusaciones de los ex empleados “tonterías”.

Meta está haciendo un nuevo impulso para demostrar sus pasos para proteger a los niños. El jueves, anunció una expansión de sus cuentas para adolescentes a usuarios de Facebook fuera de los Estados Unidos y dijo que buscaría nuevas asociaciones locales con las escuelas intermedias y secundarias.

“Queremos que los padres se sientan bien con sus adolescentes usando las redes sociales”, dijo el jefe de Instagram, Adam Mosseri.

Publicado – 26 de septiembre de 2025 10:31 am es

Fuente

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button