sábado, febrero 1, 2025

Abogado australiano atrapado utilizando ChatGPT presentó documentos judiciales que hacen referencia a casos ‘inexistentes’

Un abogado australiano ha sido remitido a una comisión de quejas legales estatales, después de que se descubrió que había usado ChatGPT para escribir presentaciones judiciales en un caso de inmigración y la plataforma de inteligencia artificial generó citas de casos que no existían.

En un fallo del Circuito Federal y el Tribunal de Familia el viernes, la jueza Rania Skaros refirió al abogado, a quien se le redactó su nombre de la decisión, a la Oficina del Comisionado de Servicios Legales de NSW (OLSC) para su consideración.

El tribunal escuchó en una apelación de un Tribunal de Apelaciones Administrativas que decisión, el abogado presentó una solicitud modificada al Circuito Federal y al Tribunal de Familia en octubre de 2024, así como un resumen de las presentaciones. Skaros dijo que «ambos documentos contenían citas de casos y supuestas citas de la decisión del Tribunal que no existían».

El 19 de noviembre, el abogado escribió al tribunal declarando que los errores no eran intencionales y que los lamentó profundamente. En una audiencia el 25 de noviembre, el abogado admitió haber usado ChatGPT para escribir los documentos.

«El [lawyer] declaró que había usado IA para identificar casos australianos, pero le proporcionó una jurisprudencia inexistente ”, dijo Skaros. «El tribunal expresó su preocupación por el [lawyer]La conducta y su falta de verificación de la precisión de lo que se había presentado ante el tribunal, señalando que el tribunal y mis asociados habían pasado una cantidad considerable y mis asociados revisaban las citas e intentaron encontrar las supuestas autoridades «.

En una declaración jurada proporcionada al tribunal, el abogado dijo que debido a las limitaciones de tiempo y los problemas de salud, decidió usar la IA.

«Accedió al sitio conocido como CHATGPT, insertó algunas palabras y el sitio preparó un resumen de los casos para él», dijo el fallo. «Dijo que el resumen se lee bien, por lo que incorporó las autoridades y referencias a sus presentaciones sin verificar los detalles».

Se dijo que el abogado estaba profundamente avergonzado por el incidente y ha tomado medidas para mejorar su conocimiento de IA.

El abogado del Ministro de Inmigración argumentó que el abogado no había ejercido una atención adecuada, y dado el interés público en el mal uso de la IA en los procedimientos legales, era de interés público que los usos erróneos de los casos de IA se remitiran a la OLSC.

«Fue enviado [by the minister] que dicha conducta continuaría ocurriendo y debe ser ‘mordisqueada’ «.

Skip Paster Newsletter Promotion

Skaros dijo que el uso de la IA generativa en los procedimientos legales es un problema en vivo y en evolución y que era de interés público del OLSC ser consciente de dicha conducta.

Es el segundo caso legal en Australia donde un abogado ha sido remitido a un organismo regulatorio sobre el uso de IA, luego de que un abogado de Melbourne fuera remitido al organismo de quejas legales victorianas el año pasado después de admitir que usar IA en un caso de tribunal de familia generó un caso falso citas.

En una nota de práctica emitida por la Corte Suprema de NSW a fines del año pasado, que entrará en vigencia el lunes, el tribunal ha puesto límites al uso de IA generativa por parte de los abogados de NSW, incluida la estipulación de que no debe usarse para generar declaraciones juradas, Declaraciones de testigos, referencias de carácter u otro material entregado en evidencia o usado en el interrogatorio.

Fuente

Últimas

Últimas

Ártículos Relacionades

CAtegorías polpulares

spot_imgspot_img