Apple se enfrenta a una pleito (PDF) presentado el jueves por el Fiscal General de Virginia Occidental, JB McCuskey, el acusaciones de que iCloud se utiliza para almacenar y distribuir material de abuso sexual infantil en línea. McCuskey alega que Apple sabía de esto “durante años” y “decidió no hacer nada al respecto”.
La demanda contiene supuestas capturas de pantalla de iMessage entre los ejecutivos de Apple Eric Friedman y Herve Sibert que reconocen el almacenamiento y distribución de CSAM en iCloud en febrero de 2020.
“En una conversación de iMessage sobre si Apple podría estar poniendo demasiado énfasis en la privacidad y no lo suficiente en la confianza y seguridad de los niños, Friedman se jactó de que iCloud es ‘la plataforma más grande para distribuir pornografía infantil’ y que Apple ‘eligió no saber en suficientes lugares donde realmente no podemos saberlo'”, alega la demanda.
“En la misma conversación”, continúa, “Friedman se refirió a un artículo del New York Times sobre la detección de CSAM y reveló que sospecha que Apple no informa la magnitud del problema de CSAM que tiene en sus productos”.
La acción apunta a la cantidad de informes de CSAM detectados realizados al Centro Nacional para Niños Desaparecidos y Explotados en 2023 por Apple (267), en comparación con Google (1,47 millones) y Meta (30,6 millones).
La demanda alega que Apple no implementó herramientas de detección de CSAM, incluida una herramienta de escaneo patentada en la que estaba trabajando. En 2021, Apple lanzó una iniciativa para escanear imágenes almacenadas en iCloud para CSAM, que fue abandonado al año siguiente.
El papel del cifrado de extremo a extremo
También apunta a Apple Security ofrece protección de datos avanzadaque se convirtió disponible en diciembre de 2022 en iCloud y permite el cifrado de extremo a extremo de fotos y vídeos en la plataforma de almacenamiento en la nube. La demanda alega que el cifrado de extremo a extremo es “una barrera para la aplicación de la ley, incluida la identificación y el procesamiento de infractores y abusadores de CSAM”.
“Preservar la privacidad de los depredadores infantiles es absolutamente imperdonable”, dijo McCuskey en un comunicado el jueves. “Debido a que Apple hasta ahora se ha negado a controlarse a sí misma y a hacer lo moralmente correcto, presento esta demanda para exigir que Apple respete la ley, denuncie estas imágenes y deje de revictimizar a los niños al permitir que estas imágenes se almacenen y compartan”.
Apple le dijo a CNET que “la seguridad y la privacidad” están en el centro de sus decisiones, especialmente para los niños.
“Estamos innovando todos los días para combatir las amenazas en evolución y mantener la plataforma más segura y confiable para los niños”, dijo Apple el jueves. “Todas nuestras funciones y controles parentales líderes en la industria, como Communication Security, que interviene automáticamente en los dispositivos de los niños cuando se detecta desnudez en Mensajes, Fotos compartidas, AirDrop e incluso llamadas FaceTime en vivo, están diseñados teniendo en cuenta la seguridad y privacidad de nuestros usuarios”.
EL Seguridad de las comunicaciones La función está habilitada de forma predeterminada para usuarios menores de 18 años. Intenta proteger a los niños del contenido CSAM, pero no se dirige a los adultos que se ocupan de la distribución y el almacenamiento de CSAM.
El equilibrio entre la privacidad y la seguridad, por un lado, y la aplicación de la ley y el cibercrimen, por el otro, ha estado en el centro del debate sobre el cifrado de extremo a extremo.
Los defensores de la privacidad como la Electronic Frontier Foundation aplaudieron la introducción del cifrado en iCloud en 2022 y señalaron que “el escaneo constante de imágenes de abuso infantil puede dar lugar a investigaciones injustificadas y falsos positivos”. Señaló a protecciones para los datos confidenciales de iCloud de las personascomo fotografías, contra posibles violaciones de datos en la nube y demandas gubernamentales.
“Bloquear el uso del cifrado de extremo a extremo sería contraproducente y antitético para la seguridad y privacidad de todos en línea”, dijo Thorin Klosowski, activista de seguridad y privacidad de la EFF, en un comunicado. “El cifrado es el mejor método que tenemos para proteger la privacidad en línea, lo cual es especialmente importante para los jóvenes”.
Las filtraciones de datos van en aumentocomo estan gobierno y Solicitudes de organismos encargados de hacer cumplir la ley para obtener datos de usuarios. a varias razones. puedes ver Informe de transparencia de Apple sobre cuántas solicitudes gubernamentales recibe de datos de usuarios, aunque parece alcanzar el límite en diciembre de 2024.
El cifrado de extremo a extremo también lo utilizan Google por sus servicios de mensajeríaasí como aplicaciones de mensajería populares como WhatsApp, Señal y Telegram.
La denuncia fue presentada en el Tribunal de Circuito del condado de Mason, Virginia Occidental, el 19 de febrero.
Sigue uno acción colectiva presentado a finales de 2024 en un Tribunal de Distrito del Norte de California por 2.680 demandantes que alegan que el software de escaneo CSAM abandonado de Apple equivale a que el gigante tecnológico permita a sabiendas su distribución y almacenamiento en iCloud. En agosto de 2024, se presentó una demanda similar en nombre de una niña de 9 años víctima de agresión sexual. en carolina del norte.
















