Un destacado abogado australiano se disculpó ante un juez por las declaraciones que hizo en un juicio por asesinato. citas falsas incluidas y creado por decisiones de casos inexistentes inteligencia artificial.
El error de la Corte Suprema de Victoria es otro de una serie de reveses causados por la IA en los sistemas judiciales de todo el mundo.
El abogado defensor Rishi Nathwani, que ostenta el prestigioso título legal de Abogado del Rey, asumió “toda la responsabilidad” por proporcionar información falsa en declaraciones presentadas en el juicio de un adolescente acusado de asesinato, según documentos judiciales vistos por The Associated Press el viernes.
“Estamos muy apenados y avergonzados por lo que pasó”, dijo Nathwani al juez James Elliott en nombre de su equipo de defensa el miércoles.
Los errores provocaron un retraso de 24 horas en la resolución de un caso que Elliott esperaba concluir el miércoles. Elliott dictaminó el jueves que el cliente de Nathwani, que no fue identificado porque es menor de edad, no era culpable de asesinato por discapacidad mental.
“A riesgo de declararlo, la manera en que se desarrollaron estos acontecimientos es insatisfactoria”, dijo Elliott a sus abogados el jueves. dijo.
“Es esencial para la debida administración de justicia que el tribunal pueda confiar en la exactitud de las declaraciones hechas por los abogados”, añadió Elliott.
Las presentaciones falsas incluían citas inventadas de un discurso ante la legislatura estatal y extractos de casos inexistentes supuestamente de la Corte Suprema.
Los errores generados por la IA fueron descubiertos previamente por los asociados de Elliot, quienes no pudieron encontrar los casos citados y solicitaron a los abogados defensores que proporcionaran copias, según la Australian Broadcasting Corporation. reportado.
Según documentos judiciales, los abogados reconocieron que las citas “no existen” y que la solicitud contenía “citas ficticias”.
Los abogados explicaron que comprobaron si las citas iniciales eran exactas y supusieron erróneamente que las demás también lo serían.
Las declaraciones también fueron enviadas al fiscal Daniel Porceddu, quien no comprobó su veracidad.
El juez señaló que el año pasado la Corte Suprema emitió directrices sobre cómo los abogados utilizan la inteligencia artificial.
“El uso de inteligencia artificial es inaceptable a menos que el producto del uso haya sido verificado de manera independiente y exhaustiva”, dijo Elliott.
Los documentos judiciales no describen el sistema de IA generativa que utilizaron los abogados.
En un caso similar en Estados Unidos en 2023, un juez federal multó a dos abogados y a un bufete de abogados con 5.000 dólares. ChatGPT fue acusado Por presentar una investigación legal ficticia sobre un reclamo por lesiones de aviación.
El juez P. Kevin Castel dijo que actuaron de mala fe. Pero agradeció las disculpas y las medidas correctivas que se estaban tomando para explicar por qué no eran necesarias sanciones más duras para garantizar que ellos u otros no permitan nuevamente que las herramientas de inteligencia artificial los manipulen para producir una historia jurídica falsa en sus argumentos.
Más tarde ese año, aparecieron en documentos legales más decisiones judiciales ficticias inventadas por AI. Los abogados presentaron una demanda en nombre de Michael CohenEx abogado personal del presidente estadounidense Donald Trump. Cohen asumió la culpa y dijo que no sabía que la herramienta de Google que utilizaba para investigaciones legales también podía crear alucinaciones de inteligencia artificial.
La jueza del Tribunal Supremo británico, Victoria Sharp, advirtió en junio que presentar material falso como si fuera real podría considerarse desacato al tribunal o, en los “casos más graves”, podría equivaler a pervertir el curso de la justicia, lo que conllevaría una pena máxima de cadena perpetua.
El uso de la inteligencia artificial ha entrado en los tribunales estadounidenses de otras maneras. En abril de 2025, un hombre llamado Jerome Dewald compareció ante un tribunal de Nueva York y video un destacado Avatar creado por inteligencia artificial presentar un argumento en su favor.
Un mes después, un hombre murió en un incidente de furia al volante en Arizona.Habló en la audiencia de sentencia del asesino” Después de que su familia usó inteligencia artificial para crear un video de él leyendo una declaración de impacto de víctima.













