sábado, noviembre 9, 2024

Abogado de Melbourne remitido al organismo de denuncias después de que AI generara citaciones de casos inventados en un tribunal de familia

Un abogado de Melbourne ha sido remitido al organismo de quejas legales de Victoria después de admitir haber utilizado software de inteligencia artificial en un caso en un tribunal de familia que generó citaciones falsas y provocó el aplazamiento de una audiencia.

En una audiencia del 19 de julio de 2024, un abogado anónimo que representaba a un marido en una disputa entre un matrimonio proporcionó al tribunal una lista de casos anteriores que había solicitado la jueza Amanda Humphreys en relación con una solicitud de ejecución del caso.

Cuando Humphreys regresó a su despacho, dijo en un fallo que ni ella ni sus asociados pudieron identificar los casos en la lista. Cuando el asunto volvió a los tribunales, el abogado confirmó que la lista se había preparado utilizando el software legal Leap y dijo que había un elemento de inteligencia artificial en el software de Leap.

Reconoció que no verificó la exactitud de la información antes de presentarla al tribunal.

En el fallo inicial, reportado por primera vez por Crikeyal abogado se le dio un mes para responder por qué no debería ser remitido a la Junta de Servicios Legales y al Comisionado para su investigación, y en un fallo de agosto y publicado este mes, Humphreys refirió al abogado para la investigación.

En su fallo, Humphreys dice que el abogado admitió que se había utilizado el software de inteligencia artificial para generar la lista, pero que no había sido revisado por él ni por nadie más, y que los casos no eran reales.

El abogado ofreció una “disculpa incondicional” al tribunal y dijo que “se tomaría en serio las lecciones aprendidas” y pidió no ser remitido a investigación. Dijo que no entendía completamente cómo funcionaba el software y reconoció la necesidad de verificar la precisión de la investigación asistida por IA. Pagó a los abogados de la otra parte los gastos de la audiencia desestimada.

Humphrey dijo que aceptó la disculpa y reconoció que el estrés que causó significaba que era poco probable que se repitiera, pero una remisión para investigación era importante dado que era de interés público que la Junta y el Comisionado de Servicios Legales de Victoria examinaran las cuestiones de conducta profesional, dada la creciente uso de herramientas de IA en la legislación.

Humphrey señaló que el tribunal de familia aún no había emitido directrices sobre el uso de la IA, pero las directrices de la Corte Suprema de Victoria y del tribunal del condado de Victoria establecen que los profesionales que utilizan herramientas de IA deben saber cómo funcionan y sus limitaciones.

Un portavoz de Leap dijo a Guardian Australia que verificar el trabajo era una parte clave de las obligaciones éticas de un abogado. La compañía dijo que proporciona un proceso de verificación gratuito en el que un abogado humano local con experiencia examina el resultado de su software para garantizar la precisión.

El portavoz dijo que en este caso se hizo un proceso de verificación, pero esos documentos no fueron utilizados por el abogado. La empresa de software no dio más detalles sobre por qué no se utilizaron y el nombre del hombre se mantuvo en el anonimato.

“A pesar de que el profesional del derecho utiliza [Leap software] El proceso de verificación de LawY, que envió al usuario la información correcta sólo cuatro horas después de solicitarla y mucho antes de comparecer ante el tribunal, desafortunadamente el usuario no utilizó esta información correcta en el tribunal”, dijo el portavoz.

omitir la promoción pasada del boletín

«Este ejemplo proporciona un recordatorio oportuno de que la IA es una herramienta poderosa, pero que los usuarios deben utilizarla adecuadamente para agregar valor a la práctica legal».

La compañía dijo que 66.000 profesionales legales en todo el mundo utilizan su software.

Un anuncio de Leap de agosto de 2024 afirma que las empresas pueden “generar precedentes con facilidad utilizando IA” con plantillas impulsadas por IA que se utilizarán para producir cartas, correos electrónicos y formularios en menos de un minuto.

El caso no es el primero en el que se proporciona información falsa a abogados mediante el uso de herramientas de inteligencia artificial. En Canadá, en marzo, un abogado en un caso de custodia que utilizó ChatGPT para encontrar jurisprudencia anterior descubrió que el modelo de lenguaje grande proporcionaba casos falsos.

También se informó el año pasado que los abogados que representaban a un hombre supuestamente herido en un vuelo también habían utilizado ChatGPT para encontrar casos que respaldaran sus argumentos y descubrieron que el software había generado lo que el tribunal llamó “opiniones falsas”.

Fuente

Últimas

Últimas

Ártículos Relacionades

CAtegorías polpulares

spot_imgspot_img