mayo 30, 2024
playground abogada uso chatgpt para presentar casos en un tribunal 2024

Abogada es criticada por utilizar chatbot de IA para presentar casos falsos en la corte

Una abogada está en el centro de cientos de críticas debido a que se supo que usaba un chatbot de Inteligencia Artificial (IA) para crear casos falsos durante una investigación jurídica.

Chong Ke, abogada de Vancouver, es investigada por utilizar ChatGPT para desarrollar presentaciones legales en la corte suprema de Columbia Británica, en medio de un caso de custodia infantil.

Ke presenta casos falsos en la corte suprema

De acuerdo a los documentos judiciales, la abogada representaba a un padre que buscaba llevar a sus hijos al extranjero y se encontraba en medio de la separación con la madre de los niños. Utilizó a ChatGPT para obtener ejemplos de jurisprudencia y presentarlos en el tribunal, sin verificar su veracidad.

TE PUEDE INTERESAR:  4 años de IQOS en México: una fiesta libre de humo

Los representantes legales de la contraparte no encontraron registro de los casos citados por Ke, lo que generó indignación y acusaciones de abuso de proceso y declaración falsa ante el tribunal.

Investigación en curso sobre la conducta de la abogada

A pesar de que el juez Masuhara encontró que Ke no tuvo intención de engañar, la sociedad jurídica de Columbia Británica está investigando su conducta. El uso de IA en el ámbito legal ha generado controversia, ya que si bien puede ser útil para encontrar datos, también puede propiciar este tipo de errores.

TE PUEDE INTERESAR:  Violencia en Ecuador: ¿Qué está sucediendo y por qué?

Resumen de la noticia

– Una abogada de Vancouver está siendo investigada por usar un chatbot de Inteligencia Artificial para crear casos falsos durante una investigación jurídica.
– La abogada representaba a un padre en un caso de custodia infantil y utilizó ChatGPT para obtener ejemplos de jurisprudencia, presentando dos casos falsos en el tribunal.
– Los representantes legales de la madre se mostraron indignados y argumentaron que esta conducta era un abuso de proceso y equivalía a hacer una declaración falsa ante el tribunal.
– Aunque el juez no encontró maldad en las acciones de la abogada, la sociedad jurídica de Columbia Británica está investigando su conducta.
– Se destaca que los chatbots, a pesar de su facilidad para encontrar datos, no siempre son precisos y pueden cometer errores.

TE PUEDE INTERESAR:  Hombre fingió ser discapacitado por 20 años para recibir beneficios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *