El magistrado David Lisandrello advirtió sobre el uso «acrítico» de herramientas como ChatGPT en la abogacía, tras detectar que un escrito se basaba en normas inexistentes. Cursó un informe al Colegio de Abogados de Rosario para su análisis.
El juez Civil y Comercial de Villa Constitución, David Lisandrello, dictó una resolución en la que cuestionó el uso «acrítico» de herramientas de inteligencia artificial (IA) como ChatGPT o Gemini en el ejercicio de la abogacía. La medida se tomó luego de que el magistrado detectara que un abogado había presentado un reclamo judicial basándose en plazos y normas que no existen en el Código Procesal de Santa Fe.
En su presentación, Lisandrello explicó que los modelos de IA «no nativos para cuestiones jurídicas» suelen tener «comprobadas alucinaciones». Esto significa que, ante la falta de una respuesta real, el sistema puede inventar una que suena lógica pero carece de sustento legal. El juez señaló que el escrito presentado tenía una cadencia gramatical y construcción de frases típica de estos sistemas, lo que hizo evidente su origen.
«No se trata de una simple deficiencia argumental, sino de la introducción en el proceso de una premisa normativa inexistente», afirmó el magistrado. Esto, según su visión, desplaza indebidamente el eje del debate y obliga a las partes y al tribunal a pronunciarse sobre construcciones sin anclaje jurídico, generando trámites innecesarios.
Lisandrello aclaró que no cuestiona la herramienta en sí, sino que recuerda que su uso no puede implicar un abandono del control que debe preceder a todo acto jurídico. Por ello, ordenó que su decisión sea comunicada a la Delegación del Colegio de Abogados de Villa Constitución y, a través de ella, al Directorio del Colegio de Abogados de Rosario, para que los institutos, comisiones y el Tribunal de Ética tomen nota de esta nueva problemática.
Un precedente reciente en Rosario
Este caso no es aislado. En agosto de 2025, la Cámara de Apelaciones de Rosario confirmó un fallo de primera instancia pero incluyó un llamado de atención a un abogado por citar jurisprudencia inexistente, generada mediante IA. El juez Oscar Puccinelli, al no poder encontrar los fallos mencionados en el escrito, advirtió formalmente sobre el uso incorrecto de estas herramientas, ya regulado a nivel local.
En aquella oportunidad, el profesional involucrado reconoció haber utilizado IA generativa y se retractó de las citas. Puccinelli subrayó la necesidad de prevenir que este tipo de situaciones se generalice. La presidenta del Instituto de Inteligencia Artificial Aplicado al Derecho en Rosario, Claudia Guardia, consideró en su momento que el fallo era «muy controvertido» en cuanto a sus efectos, ya que el error no modificó el resultado favorable para el abogado, pero sí le restó solidez a su presentación.
