El error creado por AI

Según el documento del abogado del acusado, Rishi Nathwani es totalmente responsable de ‘en la presentación del documento incorrecto en el caso de asesinato.
El abogado principal en Australia se disculpó con los jueces por presentar documentos en el caso de asesinato, incluidas palabras falsas y decisiones que no existen de inteligencia artificial.
El error en la Corte Suprema de Victoria es otro canto de accidentes de IA en el mundo de la justicia.
El abogado del acusado Rishi Nathwani, quien posee al prestigioso consultor legal del consultor del rey, “totalmente responsable” de la información incorrecta para enviar el caso de los adolescentes acusados de asesinato.
“Estamos muy tristes y avergonzados por lo que sucedió”, dijo Nathwani al juez de James Elliot el miércoles en nombre del equipo de defensa.
El error creado a partir de IA causó el retraso de 24 horas en la edición del caso que Elliot esperaba concluir el miércoles. Elliot dictaminó el jueves que los clientes de Nathani no podían especificar porque no era culpable de asesinato debido a la discapacidad mental.
“El riesgo de exageración, las características de estos eventos no son satisfactorias”, dijo Ellia al abogado el jueves.
“La capacidad del Tribunal para confiar en la precisión de la entrega realizada, que es la base de la gestión de justicia apropiada”, agregó Ellia.
Entrega falsa, incluida la invención del discurso a la Asamblea Legislativa del Estado y las referencias que no existen al reclamar la Corte Suprema.
El error fue descubierto por los colegas de Elliott, que no pudieron encontrar el caso y le pidieron al abogado que preveniera copias.
El abogado aceptó la referencia “no existe” y la entrega tiene “palabras falsas”, dijo el documento.
El abogado explicó que verifican que la primera referencia es correcta y asumió que otros también son correctos.
El trabajo fue enviado al fiscal de Daniel Porceddu, que no verificó su precisión.
El juez observó que la Corte Suprema emitió una pautas el año pasado sobre cómo el abogado usó la IA.
“No es aceptado para que la inteligencia artificial se use, a menos que el producto del uso haya sido inspeccionado de forma independiente y haya sido inspeccionada a fondo”, dijo Ellia.
El documento judicial no especifica el sistema de inteligencia artificial utilizado por el abogado.
En el caso de comparable en los Estados Unidos en 2023, el juez del gobierno central ha establecido multas de 5,000 dólares para dos abogados y la oficina de abogados después de que ChatGPT se culpara debido al hecho de que la investigación legal real estaba realmente en la demanda de lesiones por aviación.
El juez P. Kevin Casel dijo que no eran buenos. Pero dio crédito, disculpas y procedimientos para explicar por qué no son necesarias sanciones violentas para asegurarse de que ellos u otros no dejarán que la inteligencia artificial la estimule a hacer una historia legal falsa en sus argumentos.
Más tarde, en ese año, se inventó la decisión del tribunal, AI fue mencionada en los documentos legales presentados por Michael Cohen, el ex presidente del presidente de los Estados Unidos, Donald Trump. Cohen lo acusó de no darse cuenta de que las herramientas de Google que utilizó para la investigación legal también puede llamar alucinaciones de IA.
Victoria Sharp Alerts advierte en junio que la adquisición de contenido incorrecto, como si fuera genuino, puede considerarse insultante o en el “caso más grave” en la destrucción de la forma de justicia, que tiene el más alto prisión en prisión.