El diseño de Instagram todavía lo hace inseguro para los adolescentes: informe

Un nuevo informe de un meta denunciante e investigadores universitarios descubrió que muchos de Instagram Características de seguridad para adolescentesintroducido a lo largo de los años frente a la presión del Congreso y Pública, no alcanzan sus objetivos y no logran Proteger a los usuarios más jóvenes.
Casi dos tercios de las características de seguridad de la plataforma de redes sociales se consideraron ineficaces o ya no estaban disponibles, Según el informe Del ex director de ingeniería de Facebook, Arturo Béjar y Cybersecurity for Democracy, un proyecto de investigación de la Universidad de Nueva York y la Universidad de Northeastern.
“Las nuevas medidas de seguridad de Meta son lamentablemente ineficaces”, Ian Russell y Maurine Molak, quienes perdieron niños seguidos ciberacoso y exposición a la depresión y contenido relacionado con el suicidio En Instagram, escribió en un prólogo al informe.
La Fundación Molly Rose de Russell y los padres de Molak también participaron en el informe, junto con el grupo de seguridad de los niños Fairplay.
“Si alguien todavía cree que la compañía cambiará voluntariamente por sí sola y priorizará el bienestar de los jóvenes sobre el compromiso y las ganancias, esperamos que este informe lo ponga en reposo de una vez por todas”, agregaron.
De 47 características de seguridad probadas por investigadores, el 64 por ciento recibió una calificación “roja”, lo que significa que ya no estaba disponible o que era “trivialmente fácil de sortear o evadir con menos de tres minutos de esfuerzo”.
Esto incluyó características como el filtrado Para ciertas palabras clave o contenido ofensivo en comentarios, advertencias sobre subtítulos o chats, ciertas capacidades de bloqueo y Restricciones de mensajería entre adultos y adolescentes.
Otro 19 por ciento de las características de seguridad de Instagram recibió una calificación “amarilla” de los investigadores que descubrieron que redujeron el daño pero aún enfrentaban limitaciones.
Por ejemplo, el informe calificó una función que permite a los usuarios deslizar para eliminar los comentarios inapropiados como “amarillo” porque las cuentas simplemente pueden continuar comentando y los usuarios no pueden proporcionar una razón para su decisión.
De los padres Herramientas de supervisión Eso puede restringir el uso de los adolescentes o proporcionar información sobre cuándo su hijo hace un informe también se colocó en esta categoría media porque era poco probable que muchos padres los usen.
Los investigadores dieron el 17 por ciento restante de las herramientas de seguridad, como la capacidad de desactivar los comentarios, las restricciones sobre quién puede etiquetar o mencionar a los adolescentes y herramientas, lo que lleva a los padres a aprobar o negar cambios en la configuración predeterminada de las cuentas de sus hijos, una calificación “verde”.
Meta, la empresa matriz de Instagram y Facebook, calificó el informe “engañoso y peligrosamente especulativo” y sugirió que socava la conversación sobre la seguridad de los adolescentes.
“Este informe tergiversa repetidamente nuestros esfuerzos para empoderar a los padres y proteger a los adolescentes, mal declarando mal cómo funcionan nuestras herramientas de seguridad y cómo millones de padres y adolescentes los usan hoy”, dijo la compañía en un comunicado compartido con la colina.
“La realidad es que los adolescentes que fueron colocados en estas protecciones vieron contenido menos sensible, experimentaron un contacto menos no deseado y pasaron menos tiempo en Instagram por la noche”, continuó la compañía. “Los padres también tienen herramientas robustas a su alcance, desde limitar el uso hasta el monitoreo de las interacciones. Continuaremos mejorando nuestras herramientas y agradecemos los comentarios constructivos, pero este informe no es eso”.
Meta expresó su preocupación sobre cómo el informe evaluó las actualizaciones de seguridad de la compañía, señalando que varias de las herramientas funcionaron como diseñadas pero recibieron una calificación amarilla porque los investigadores sugirieron que deberían ir más allá.
Una característica de bloqueo recibió una calificación “amarilla”, a pesar de que el informe reconoció que funciona, porque los usuarios no pueden proporcionar la razón por la que desean bloquear una cuenta, que los investigadores señalaron que sería “una señal invaluable para detectar cuentas maliciosas”.
Béjar, el ex empleado de Facebook que participó en el informe, testificado antes del Congreso en 2023. Él acusó a la compañía Altos ejecutivos de despedir advertencias sobre adolescentes que experimentan avances sexuales no deseados e intimidación en Instagram.
Su testimonio se produjo dos años después de que el denunciante de Facebook, Frances Haugen con acusaciones de que La compañía era consciente de los impactos negativos para la salud mental de sus productos en las niñas.
Casi cuatro años después, Varios meta denunciantes más han presentado nuevas preocupaciones sobre las prácticas de seguridad de la compañía. Seis empleados actuales y anteriores acusaron a la compañía a principios de este mes de médica o restringir la investigación de seguridad interna, particularmente con respecto a los usuarios jóvenes en sus plataformas de realidad virtual y aumentada.