
Por Khari Johnson. CalMatters. Peninsula 360 Press.
Un abogado de California debe pagar una multa de 10 mil dólares por presentar una apelación ante un tribunal estatal llena de citas falsas generadas por la herramienta de inteligencia artificial ChatGPT.
La multa parece ser la mayor impuesta por un tribunal de California por invenciones de inteligencia artificial y se acompaña de una opinión contundente que declara que 21 de las 23 citas de casos citados en el escrito inicial del abogado son falsas. También señala que numerosos tribunales federales y de otros estados han confrontado a abogados por citar autoridad legal falsa.
“Por lo tanto, publicamos esta opinión como advertencia”, continuó. “En resumen, ningún escrito, alegato, moción ni ningún otro documento presentado ante un tribunal debe contener citas, ya sean proporcionadas por IA generativa o por cualquier otra fuente, que el abogado responsable de presentar el alegato no haya leído y verificado personalmente”.
El dictamen, emitido hace 10 días en el Tribunal de Apelaciones del Segundo Distrito de California, es un claro ejemplo de por qué las autoridades judiciales del estado se apresuran a regular el uso de la IA en el poder judicial.
El Consejo Judicial del estado emitió hace dos semanas directrices que exigen a los jueces y al personal judicial prohibir la IA generativa o adoptar una política de uso de la misma antes del 15 de diciembre. Mientras tanto, el Colegio de Abogados de California está considerando la posibilidad de reforzar su código de conducta para incluir diversas formas de IA, tras una solicitud presentada por la Corte Suprema de California el mes pasado.
El abogado del área de Los Ángeles multado la semana pasada, Amir Mostafavi, declaró ante el tribunal que no leyó el texto generado por el modelo de IA antes de presentar la apelación en julio de 2023, meses después de que OpenAI promocionara ChatGPT como capaz de aprobar el examen de abogacía.
Un panel de tres jueces lo multó por presentar una apelación frívola, violar las normas judiciales, citar casos falsos y malgastar el tiempo del tribunal y el dinero de los contribuyentes, según el dictamen.
Mostafavi declaró a CalMatters que redactó la apelación y luego usó ChatGPT para intentar mejorarla. Añadió que no sabía que añadiría citas de casos o que inventaría información.
Considera poco realista esperar que los abogados dejen de usar la IA. Esta se ha convertido en una herramienta importante justo cuando las bases de datos en línea reemplazaron en gran medida a las bibliotecas jurídicas y, hasta que los sistemas de IA dejen de generar información falsa, recomienda a los abogados que la usan que actúen con cautela.
“Mientras tanto, tendremos víctimas, daños y estragos”, dijo. “Espero que este ejemplo ayude a otros a no caer en el mismo lío. Yo estoy pagando el precio”.
La multa impuesta a Mostafavi es la sanción más costosa impuesta a un abogado por un tribunal estatal de California y una de las multas más altas jamás impuestas por el uso de IA por parte de abogados, según Damien Charlotin, quien imparte un curso sobre IA y derecho en una escuela de negocios de París.
Charlotin rastrea casos de abogados que citan casos falsos, principalmente en Australia, Canadá, Estados Unidos y el Reino Unido.
En un caso ampliamente publicitado en mayo, un juez de distrito de EE. UU. en California ordenó a dos bufetes de abogados pagar 31 mil 100 dólares en honorarios a los abogados defensores y al tribunal por los costos asociados con el uso de “investigación falsa generada por IA”.
En ese fallo, el juez describió haberse sentido engañado, dijo que casi citaron material falso en una orden judicial y afirmó: “Se necesita una fuerte disuasión para asegurar que los abogados no caigan en este atajo fácil”.
Charlotin cree que los tribunales y el público deberían esperar un aumento exponencial de estos casos en el futuro. Cuando empezó a rastrear los expedientes judiciales relacionados con IA y casos falsos a principios de este año, se encontraba con unos pocos casos al mes. Ahora ve unos pocos casos al día. Los modelos de lenguaje de gran tamaño presentan con seguridad falsedades como hechos, sobre todo cuando no hay pruebas que las respalden.
“Cuanto más difícil sea tu argumento legal, más tenderá el modelo a alucinar, porque intentará complacerte”, dijo. “Ahí es donde entra en juego el sesgo de confirmación”.
Un análisis realizado en mayo de 2024 por RegLab de la Universidad de Stanford reveló que, si bien tres de cada cuatro abogados planean utilizar IA generativa en su práctica, algunas formas de IA generan alucinaciones en una de cada tres consultas. Detectar material falso citado en documentos legales podría complicarse a medida que los modelos aumentan de tamaño.
Otro rastreador de casos en los que los abogados citan una autoridad legal inexistente debido al uso de IA identifica 52 casos similares en California y más de 600 en todo el país. Se espera que esta cifra aumente próximamente, ya que la innovación en IA está superando la formación de los abogados, afirmó Nicholas Sanctis, estudiante de derecho de la Facultad de Derecho de la Universidad Capital de Ohio.
Jenny Wondracek, quien dirige el proyecto de seguimiento, dijo que espera que esta tendencia empeore porque todavía se encuentra regularmente con abogados que no saben que la IA inventa cosas o creen que las herramientas de tecnología legal pueden eliminar todo el material falso o engañoso generado por los modelos de lenguaje.
“Creo que veríamos una reducción si (los abogados) simplemente entendieran los conceptos básicos de la tecnología”, dijo.
Al igual que Charlotin, sospecha que hay más casos inventados generados por IA en los expedientes judiciales estatales que en los federales, pero la falta de métodos de presentación estandarizados dificulta su verificación. Afirmó que encuentra casos falsos con mayor frecuencia entre abogados sobrecargados o personas que optan por representarse a sí mismos en los tribunales de familia.
Sospecha que la cantidad de argumentos presentados por abogados que utilizan IA y citan casos falsos seguirá aumentando, pero añadió que no solo los abogados se dedican a esta práctica. En las últimas semanas, ha documentado tres casos de jueces que citan autoridad legal falsa en sus decisiones.
Mientras California considera cómo tratar la IA generativa y las citaciones de casos falsos, Wondracek dijo que pueden considerar enfoques adoptados por otros estados, como suspensiones temporales, exigir a los abogados que sean descubiertos que tomen cursos para entender mejor cómo usar la IA de forma ética, o exigirles que enseñen a los estudiantes de derecho cómo pueden evitar cometer el mismo error.
Mark McKenna, codirector del Instituto de Tecnología, Derecho y Política de la UCLA, elogió multas como la impuesta a Mostafavi por castigar a los abogados por “abdicar de su responsabilidad como parte que representa a alguien”. Cree que el problema “empeorará antes de mejorar”, debido a la prisa de las facultades de derecho y los bufetes privados por adoptar la IA sin considerar la forma adecuada de utilizarla.
Andrew Selbst, profesor de la Facultad de Derecho de la UCLA, coincide, señalando que los auxiliares que trabajan para jueces son recién graduados de la facultad de derecho, y que los estudiantes reciben un bombardeo constante de mensajes que les obligan a usar IA o se quedan atrás. Los educadores y otros profesionales reportan sentir presiones similares.
“Esto nos lo están imponiendo a todos”, dijo. “Se está imponiendo en empresas, escuelas y muchos otros lugares, y aún no hemos afrontado las consecuencias”.
You may be interested in: California afirma que no hay IA de alto riesgo en su gobierno, pese a amplia evidencia de lo contrario