El bufete de abogados de lesiones personales de EE. UU. Morgan & Morgan envió un correo electrónico urgente este mes a sus más de 1,000 abogados: la inteligencia artificial puede inventar la jurisprudencia falsa, y el uso de información inventada en una presentación judicial podría hacer que lo despidan.
Un juez federal en Wyoming acababa de amenazar con sancionar a dos abogados en la firma que incluía citas de casos ficticios en una demanda contra Walmart. Uno de los abogados admitió en las presentaciones judiciales la semana pasada que utilizó un programa de IA que «alucinó» los casos y se disculpó por lo que llamó un error inadvertido.
La inclinación de la IA por generar ficción legal en caso de presentaciones ha llevado a los tribunales de todo el país a cuestionar o disciplinar a los abogados en al menos siete casos en los últimos dos años, y creó un nuevo dolor de cabeza de alta tecnología para litigantes y jueces, según Reuters.
El caso de Walmart se destaca porque involucra a un bufete de abogados bien conocido y un gran acusado corporativo. Pero ejemplos como él han surgido en todo tipo de demandas, ya que los chatbots como ChatGPT introducieron en la era de la IA, destacando un nuevo riesgo de litigio.
Un portavoz de Morgan & Morgan no respondió a una solicitud de comentarios. Walmart declinó hacer comentarios. El juez aún no ha dictaminado si disciplinar a los abogados en el caso de Walmart, que involucró a un juguete de hoverboard supuestamente defectuoso.
Los avances en la IA generativa están ayudando a reducir el tiempo que los abogados necesitan para investigar y redactar informes legales, lo que lleva a muchas firmas de abogados a contratar a los proveedores de IA o construir sus propias herramientas de IA. El sesenta y tres por ciento de los abogados encuestados por la empresa matriz de Reuters, Thomson Reuters, dijeron el año pasado que han usado IA para el trabajo, y el 12 por ciento dijo que lo usan regularmente.
La IA generativa, sin embargo, se sabe que compone con confianza hechos, y los abogados que la usan deben tener precaución, dijeron expertos legales. La IA a veces produce información falsa, conocida como «alucinaciones» en la industria, porque los modelos generan respuestas basadas en patrones estadísticos aprendidos de grandes conjuntos de datos en lugar de verificar los hechos en esos conjuntos de datos.
Las reglas de ética de los abogados requieren que los abogados examinen sus presentaciones judiciales o se arriesgan a ser disciplinados. La American Bar Association dijo a sus 400,000 miembros el año pasado que esas obligaciones se extienden a «incluso una falla involuntaria» producida a través de AI.
Las consecuencias no han cambiado solo porque las herramientas de investigación legal han evolucionado, dijo Andrew Perlman, decano de la Facultad de Derecho de la Universidad de Suffolk y defensor del uso de AI para mejorar el trabajo legal.
«Cuando los abogados son atrapados usando ChatGPT o cualquier herramienta de IA generativa para crear citas sin verificarlas, eso es incompetencia, solo puro y simple», dijo Perlman.
‘Falta de alfabetización de IA’
En uno de los primeros recepcionistas judiciales sobre el uso de la IA por parte de los abogados, un juez federal en Manhattan en junio de 2023 multó a dos abogados de Nueva York $ 5,000 por citar casos que fueron inventados por IA en un caso de lesiones personales contra una aerolínea.
El año pasado, un juez federal diferente de Nueva York consideró imponer sanciones en un caso que involucra a Michael Cohen, el ex abogado y reparador de Donald Trump, quien dijo que por error dio a su propio abogado citas de casos falsos que el abogado presentó en el caso de impuestos penales y finanzas de campaña de Cohen. .
Cohen, quien usó el chatbot Bard de AI de Google, y su abogado no fue sancionado, pero el juez calificó el episodio como «vergonzoso».
En noviembre, un juez federal de Texas ordenó a un abogado que citó casos inexistentes y citas en una demanda por terminación injusta para pagar una multa de $ 2,000 y asistir a un curso sobre IA generativa en el campo legal.
El mes pasado, un juez federal en Minnesota dijo que un experto en información errónea había destruido su credibilidad con el tribunal después de que admitió que citó involuntariamente citas generadas por IA en un caso que involucró una parodia de «defake» de la vicepresidenta Kamala Harris.
Harry Surden, profesor de derecho de la Facultad de Derecho de la Universidad de Colorado que estudia la IA y la ley, dijo que recomienda que los abogados pasen tiempo aprendiendo «las fortalezas y debilidades de las herramientas». Dijo que los ejemplos crecientes muestran una «falta de alfabetización de IA» en la profesión, pero la tecnología en sí no es el problema.
«Los abogados siempre han cometido errores en sus presentaciones antes de la IA», dijo. «Esto no es nuevo».