Técnica

Abogado atrapado utilizando citas falsas generadas por IA en el caso judicial penalizado en Australian First | Ley (Australia)

Un abogado victoriano se ha convertido en el primero en Australia en enfrentar sanciones profesionales para usar la inteligencia artificial en un caso judicial, siendo despojado de su capacidad para practicar como abogado principal después de que AI generó citas falsas que no había podido verificar.

Australia Guardián reportado en octubre del año pasado Que en una audiencia del 19 de julio de 2024, el abogado anónimo que representa a un esposo en una disputa entre una pareja casada proporcionó al tribunal una lista de casos anteriores que habían solicitado el juez Amanda Humphreys en relación con una solicitud de aplicación en el caso.

Cuando Humphreys regresó a sus cámaras, dijo en un fallo que ni ella ni sus asociados pudieron identificar los casos en la lista. Cuando el asunto regresó a los tribunales, el abogado confirmó que la lista se había preparado utilizando software legal que utilizaba IA.

Reconoció que no verificó la precisión de la información antes de enviarla al tribunal.

El abogado ofreció una “disculpa incondicional” al tribunal y dijo que “tomaría las lecciones aprendidas a corazón” y le pidió que no fueran remitidos para su investigación.

Dijo que no entendía completamente cómo funcionaba el software y reconoció la necesidad de verificar la investigación asistida por la precisión. Hizo un pago a los abogados por la otra parte por los costos de la audiencia desechada.

Registro: correo electrónico de noticias de AU Breaking

Humphreys dijo que aceptó las disculpas y reconoció el estrés que causó significaba que era poco probable que se repitiera, pero una referencia para la investigación era importante dado que era de interés público para la Junta de Servicios Legales Victorianos y el Comisionado de examinar los problemas de conducta profesional, dado el uso cada vez mayor de las herramientas de IA en la ley.

El abogado fue remitido a la Junta de Investigación de Servicios Legales Victorianos, en lo que fue uno de los primeros casos reportados en Australia de un abogado que fue atrapado utilizando IA en la corte que generó citas falsas.

La Junta de Servicios Legales de Victoriano confirmó el martes que el abogado tenía su certificado de práctica variado el 19 de agosto como resultado de la investigación, lo que significa que ya no tenía derecho a practicar como abogado principal, no autorizado para manejar el dinero de fideicomiso, ya no operaría su propia práctica legal y solo practicaría como un abogado de empleados.

El abogado llevará a cabo una práctica legal supervisada por un período de dos años, con el abogado y su supervisor informando a la junta en ese momento.

“La acción regulatoria de la junta en este asunto demuestra nuestro compromiso de garantizar que los profesionales legales que elijan usar la IA en su práctica legal lo hagan de manera responsable que sea consistente con sus obligaciones”, dijo un portavoz.

Desde este caso, ha habido más de 20 casos reportados en los tribunales australianos donde se ha encontrado que los abogados o litigantes auto representados han utilizado inteligencia artificial en la preparación de documentos judiciales que llevaron a esos documentos que contienen citas falsas.

Skip Paster Newsletter Promotion

Abogados en Australia Occidental y Nueva Gales del Sur También han sido remitidos a sus propios organismos reguladores estatales sobre la práctica.

También ha habido al menos un caso en Australia donde alguien afirmó que un documento había sido preparado usando chatgptsolo para que el tribunal determine el documento en cuestión se creó antes de que ChatGPT estuviera disponible para el público.

Los tribunales y los grupos de derecho reconocen que la IA desempeñará un papel en los procesos legales, pero continúa advirtiendo que no disminuye el juicio profesional de los abogados.

“Donde estas herramientas son utilizadas por los abogados, esto debe hacerse con atención extrema”, dijo el mes pasado la presidenta del Consejo de Derecho de Australia, Juliana Warner, a Guardian Australia. “Los abogados siempre deben tener en cuenta sus obligaciones profesionales y éticas con el tribunal y sus clientes”.

Warner dijo que los tribunales se referían a los casos en que la IA había generado citas falsas como una “preocupación seria”, pero agregó que dado el uso generalizado de la IA generativa, una prohibición ampliamente enmarcada en su uso en los procedimientos legales sería “ni práctico ni proporcional, y corre el riesgo de innovar la innovación y el acceso a la justicia”.


iframemessenger.enableautoresize ();">

Fuente

Related Articles

Back to top button