Oculto en una nota a pie de página de dos oraciones en una voluminosa opinión judicial, un juez federal recientemente denunció a los agentes de inmigración que utilizan inteligencia artificial para redactar informes sobre el uso de la fuerza, lo que generó preocupaciones de que podría generar imprecisiones y socavar aún más la confianza del público en cómo la policía ha manejado la inmigración. represión nodo chicago zona y las protestas que siguieron.
La jueza de distrito estadounidense Sara Ellis escribió la nota a pie de página en un documento de 223 páginas. opinión emitido la semana pasada, señalando que la práctica de utilizar ChatGPT para redactar informes sobre el uso de la fuerza socava la credibilidad de los agentes y “puede explicar la inexactitud de estos informes”. Ella describió lo que vio en al menos un video de una cámara corporal, y escribió que un agente le pide a ChatGPT que recopile una narrativa para un informe de noticias después de proporcionarle al programa una breve oración de descripción y varias imágenes.
El juez notó discrepancias fácticas entre la narrativa oficial sobre las respuestas de las autoridades y lo que mostraban las imágenes de la cámara corporal. Pero los expertos dicen que usar IA para escribir un informe que se base en la perspectiva específica de un agente sin utilizar la experiencia real de un agente es el peor uso posible de la tecnología y plantea serias preocupaciones sobre la precisión y la privacidad.
Los organismos encargados de hacer cumplir la ley en todo el país han luchado por descubrir cómo crear barandillas que permiten a los agentes de policía utilizar tecnología de inteligencia artificial cada vez más disponible manteniendo la precisión, la privacidad y el profesionalismo. Los expertos dijeron que el ejemplo presentado en el dictamen no cumplía con este desafío.
“Lo que hizo este tipo es lo peor de todos los mundos. Dar una sola frase y unas pocas fotos (si esto es cierto, si esto es lo que pasó aquí) va en contra de todos los consejos que tenemos. Es un escenario de pesadilla”, dijo Ian Adams, profesor asistente de criminología en la Universidad de Carolina del Sur que forma parte de un grupo de trabajo sobre inteligencia artificial a través del Consejo de Justicia Penal, un grupo de expertos no partidista.
El Departamento de Seguridad Nacional no respondió a las solicitudes de comentarios y no estaba claro si la agencia tenía pautas o políticas con respecto al uso de IA por parte de los agentes. Las imágenes de la cámara corporal citadas en la orden aún no se han publicado.
Adams dijo que pocos departamentos han implementado políticas, pero aquellos que lo han hecho a menudo prohíben el uso de IA predictiva al redactar informes que justifican las decisiones policiales, especialmente los informes sobre el uso de la fuerza. Los tribunales han establecido un estándar llamado razonabilidad objetiva al considerar si el uso de la fuerza estaba justificado, basándose en gran medida en la perspectiva del actor específico en ese escenario específico.
“Necesitamos los eventos específicos articulados a partir de ese evento y los pensamientos específicos de ese oficial específico para decirnos si este fue un uso justificado de la fuerza”, dijo Adams. “Ese es el peor de los casos, aparte de decir explícitamente que se inventen hechos, porque estás rogando que se inventen hechos en esta situación de alto riesgo”.
Además de generar preocupaciones sobre un informe generado por IA que caracteriza de manera inexacta lo sucedido, el uso de IA también plantea posibles preocupaciones sobre la privacidad.
Katie Kinsey, jefa de personal y asesora de políticas tecnológicas del Proyecto de Vigilancia de la Facultad de Derecho de la Universidad de Nueva York, dijo que si el agente solicitante estaba usando una versión pública de ChatGPT, probablemente no entendió que perdió el control de las imágenes en el momento en que las subió, lo que les permitió ser parte del dominio público y potencialmente utilizadas por malos actores.
Kinsey dijo que desde el punto de vista tecnológico, la mayoría de los departamentos están construyendo el avión mientras vuela cuando se trata de IA. Dijo que a menudo es un patrón en la aplicación de la ley esperar hasta que ya se estén utilizando nuevas tecnologías y, en algunos casos, se cometen errores antes de hablar sobre la implementación de directrices o políticas.
“Prefieres hacer las cosas al revés, comprender los riesgos y desarrollar protecciones en torno a los riesgos”, dijo Kinsey. “Incluso si no están estudiando las mejores prácticas, hay algunos frutos al alcance de la mano que pueden ayudar. Podemos comenzar con la transparencia”.
Kinsey dijo que mientras las autoridades federales consideran cómo se debe o no usar la tecnología, podrían adoptar una política como las implementadas recientemente en Utah o California, donde los informes policiales o las comunicaciones escritas con inteligencia artificial deben etiquetarse.
Las fotografías que utilizó el oficial para generar una narrativa también generaron dudas sobre la precisión de algunos expertos.
Empresas de tecnología reconocidas como Axon han comenzado a ofrecer Componentes de IA con sus cámaras corporales para ayudar con la redacción de informes de incidentes. Los programas de IA comercializados para la policía operan en un sistema cerrado y se limitan en gran medida al uso de audio de cámaras corporales para producir narrativas porque las empresas han declarado que los programas que intentan utilizar imágenes no son lo suficientemente efectivos para su uso.
“Hay muchas maneras diferentes de describir un color, una expresión facial o cualquier componente visual. Podrías preguntarle a cualquier experto en IA y te diría que las indicaciones arrojan resultados muy diferentes entre diferentes aplicaciones de IA, y esto se complica con un componente visual”, dijo Andrew Guthrie Ferguson, profesor de derecho en la Facultad de Derecho de la Universidad George Washington.
“También hay cuestiones de profesionalismo. ¿Estamos de acuerdo con que los agentes de policía utilicen análisis predictivos?” añadió. “Se trata de lo que el modelo cree que debería haber sucedido, pero puede que no sea lo que realmente sucedió. No quieres que eso sea lo que termine en los tribunales, para justificar tus acciones”.














