Técnica

Louisiana demanda a Roblox alegando que el popular sitio de juegos no puede proteger a los niños

Louisiana demandó a la plataforma de juegos en línea Roblox el jueves, alegando que el sitio muy popular ha perpetuado un entorno en el que los depredadores sexuales “prosperan, unen, cazan y vicen a los niños”.

La demanda, presentada en el tribunal estatal por la fiscal general de Louisiana, Liz Murrill, alega que Roblox no ha implementado medidas de seguridad efectivas para proteger a los usuarios infantiles de los depredadores adultos.

“Debido a la falta de protocolos de seguridad de Roblox, pone en peligro la seguridad de los niños de Louisiana”, dijo Murrill en un comunicado de prensa. “Roblox está invadido por contenido dañino y depredadores infantiles porque prioriza el crecimiento de los usuarios, los ingresos y las ganancias sobre la seguridad infantil”.

La compañía ha enfrentado demandas y reacción por no hacer lo suficiente para proteger a los niños en sus servicios de juego. El mes pasado, se presentó una demanda en Iowa después de que una niña de 13 años supuestamente fue presentada a un depredador adulto en la plataforma, luego secuestrado y traficado en múltiples estados y violada.

En Louisiana, el sheriff de la parroquia de Livingston, Jason Ard, dijo que su oficina ha tenido múltiples casos que involucran a Roblox. En uno, la policía alega que un hombre usó tecnología que altera la voz para posar como niña en la plataforma. ARD dijo que aún no ha habido arrestos relacionados con el sitio de juegos.

Finalmente, Murrill dijo que cree que Roblox debería estar cerrado.

Roblox dijo que disputa las acusaciones.

“La afirmación de que Roblox pondría a nuestros usuarios en riesgo de explotación es categóricamente falsa”, dijo la compañía en un comunicado.

“Si bien ningún sistema es perfecto, Roblox ha implementado rigurosos salvaguardas, como restricciones para compartir información personal, enlaces y compartir imágenes de usuario a usuario, para ayudar a proteger a nuestra comunidad”, agregó la compañía. “Desafortunadamente, los malos actores intentarán eludir nuestros sistemas para tratar de dirigir a los usuarios de la plataforma, donde los estándares de seguridad y las prácticas de moderación pueden diferir. Trabajamos continuamente para bloquear esos esfuerzos y mejorar nuestros enfoques de moderación para promover un entorno seguro y agradable para todos los usuarios”.

La plataforma de juego en línea gratuita tiene más de 111 millones de usuarios mensuales. Su sitio web describes Roblox como “el último universo virtual que te permite crear, compartir experiencias con amigos y ser cualquier cosa que puedas imaginar”.

Roblox no permite a los usuarios compartir videos o imágenes en chats e intenta bloquear cualquier información personal, como los números de teléfono. Sin embargo, al igual que con otras plataformas de juego y sitios de redes sociales con políticas similares, las personas encuentran formas de evitar tales salvaguardas.

Roblox, que según su sitio web tiene “una política de tolerancia cero para la explotación de menores”, no permite a los niños menores de 13 años chatear con otros usuarios fuera de los juegos a menos que tengan un permiso explícito de los padres. Debido a que la plataforma no cifra conversaciones de chat privadas, la compañía puede monitorearlas y moderarlas.

Sin embargo, Murrill dijo que no hay un proceso de verificación de edad mínimo o mínimo de edad una vez que un usuario se registre. Como resultado, los niños pequeños, los adolescentes y los adultos que se hacen pasar por niños pueden inscribirse, dijo.

La compañía dice en su sitio web que la verificación de edad “es una nueva característica que actualmente se está probando en Roblox”. El mes pasado, lanzó una función que requiere que los adolescentes de 13 a 17 años envíen un video selfie para verificar sus edades si quieren charlar libremente con personas que conocen, llamadas “conexiones de confianza”.

En medio de crecientes críticas en los últimos meses, la compañía ha implementado medidas adicionales que dice que mantendrán a sus jóvenes usuarios seguros.

En agosto, Roblox le dijo a AP que estaba implementando un sistema de inteligencia artificial para ayudar a detectar signos tempranos de posible peligro para niños, como un lenguaje sexual de explotación sexual. Roblox dijo que el sistema lo llevó a presentar 1,200 informes de posibles intentos de explotación infantil al Centro Nacional para Niños desaparecidos y explotados en la primera mitad de 2025.

Publicado – 18 de agosto de 2025 09:45 en IS

Fuente

Related Articles

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Back to top button