Se descubre que Barrister utilizó inteligencia artificial para prepararse para la audiencia después de citar casos “ficticios” | Inteligencia artificial (IA)

Un juez descubrió que un abogado de inmigración estaba utilizando inteligencia artificial para hacer su trabajo para una audiencia en el tribunal después de citar casos que eran “completamente ficticios” o “totalmente irrelevantes”.
Chowdhury Rahman fue descubierto utilizando un software similar a ChatGPT para preparar su investigación legal, según escuchó un tribunal. Se descubrió que Rahman no sólo había utilizado IA para preparar su trabajo, sino que “después no realizó ninguna verificación adecuada de la precisión”.
El juez del tribunal superior, Mark Blundell, dijo que Rahman incluso había tratado de ocultar el hecho de que había utilizado IA y “hacía perder” el tiempo al tribunal. Blundell dijo que estaba considerando denunciar a Rahman ante la Junta de Normas del Colegio de Abogados. The Guardian se ha puesto en contacto con la firma de Rahman para solicitar comentarios.
El asunto salió a la luz en el caso de dos hermanas hondureñas que solicitaron asilo alegando que estaban siendo atacadas por una banda criminal en su país de origen. Rahman representó a las hermanas, de 29 y 35 años. El caso llegó al tribunal superior.
Blundell rechazó los argumentos de Rahman y añadió que “nada de lo dicho por el señor Rahman oralmente o por escrito establece un error de derecho por parte del juez y la apelación debe ser desestimada”.
Luego, en un fallo inusual, Blundell continuó diciendo en una posdata que había “problemas significativos” dentro de los motivos de apelación que se le presentaron.
Dijo que Rahman citó a 12 autoridades en el expediente, pero cuando leyó los fundamentos, notó que “algunas de esas autoridades no existían y que otras no apoyaban las proposiciones de derecho por las que fueron citadas en los fundamentos”.
En su sentencia, enumeró 10 de estos casos y expuso “lo que dijo el señor Rahman sobre esos casos reales o ficticios”.
Blundell dijo: “El señor Rahman parecía no saber nada acerca de ninguna de las autoridades que había citado en los motivos de apelación que supuestamente había resuelto en julio de este año. Al parecer, no tenía intención de llevarme a ninguna de esas decisiones en sus presentaciones.
“Algunas de las decisiones no existían. Ninguna decisión apoyó la proposición de ley expuesta en los fundamentos”.
Blundell dijo que las presentaciones hechas por Rahman, quien dijo que había utilizado “varios sitios web” para realizar su investigación, eran, por lo tanto, engañosas.
Blundell dijo: “La explicación más obvia es… que los motivos de apelación fueron redactados total o parcialmente por inteligencia artificial generativa como ChatGPT.
“Me veo obligado a observar que uno de los casos citados en los argumentos del señor Rahman… ha sido recientemente utilizado erróneamente por ChatGPT en apoyo de argumentos similares”.
Rahman le dijo al juez que las inexactitudes en los argumentos se debían “a su estilo de redacción” y aceptó que podría haber habido cierta “confusión y vaguedad” en sus presentaciones.
Blundell dijo: “Los problemas que he detallado anteriormente no son cuestiones de estilo de redacción. Las autoridades que se citaron en los fundamentos o no existían o no respaldaban los fundamentos presentados”.
Añadió: “Es abrumadoramente probable, a mi juicio, que el señor Rahman haya utilizado inteligencia artificial generativa para formular los motivos de apelación en este caso, y que haya intentado ocultarme ese hecho durante la audiencia.
“Incluso si el señor Rahman pensara, por alguna razón, que estos casos respaldaban de alguna manera los argumentos que deseaba presentar, no puede explicar las citas enteramente ficticias.
“A mi juicio, la única posibilidad realista es que el señor Rahman se haya basado significativamente en la Generación AI para formular los motivos y haya tratado de ocultar ese hecho cuando se exploraron las dificultades con él en la audiencia”.
El fallo del juez se emitió en septiembre y se publicó el martes.