En una resolución sin precedentes que marca un límite ético y técnico al desembarco tecnológico en los tribunales, la Justicia de Tucumán sancionó a una letrada por incurrir en temeridad y mala fe procesal al fundar su demanda en fallos ficticios. El fallo advierte que el uso de inteligencia artificial (IA) sin el debido control humano compromete los deberes de veracidad y lealtad, transformando una herramienta de eficiencia en un riesgo sistémico para el servicio de justicia.

La sentencia interlocutoria fue dictada por el juez Santiago José Peral, titular del Juzgado Civil y Comercial Común de la X° Nominación, en el marco del expediente “Ortiz, Fátima Cecilia c/ Booking.com Argentina S.R.L. y otro s/ daños y perjuicios”. El magistrado determinó que la conducta de la letrada patrocinante, Marcela Cecilia Lazarte Vigabriel, se encuadró en una "cita deliberadamente inexacta" de fundamentos legales, tras comprobarse que seis de los precedentes invocados no pudieron ser verificados en ninguna base de datos jurídica nacional.

El conflicto se originó durante la audiencia inicial, cuando el apoderado de la firma demandada, Federico Sassi Colombres, alertó sobre la imposibilidad de localizar los fallos citados por la actora. Ante la sospecha de que se tratara de "alucinaciones" -fenómeno propio de la IA generativa donde se crea información coherente pero falsa-, el tribunal intimó a la abogada a presentar las copias íntegras de la jurisprudencia en un plazo de cinco días.

Pese a la oportunidad otorgada para subsanar el error, la profesional no logró acreditar la existencia de causas como “González c/ Booking.com” o “Defensoría del Pueblo c/ Viajes YA S.A.”. Por el contrario, los enlaces aportados en su descargo resultaron ser ineficaces, dirigiendo a páginas de error o a expedientes con carátulas y fechas totalmente ajenas a lo sostenido originalmente, lo que reforzó la convicción judicial sobre la falsedad de las citas.

En sus considerandos, el juez Peral fue categórico al señalar que, por la estructura de las citas y la naturaleza de los errores, “puede razonablemente inferirse” que los textos fueron generados mediante herramientas de IA sin supervisión profesional. El magistrado subrayó que, aunque la innovación es bienvenida, el derecho debe asegurar que la tecnología se utilice de forma "responsable y contextualizada", impidiendo que la IA sustituya el juicio humano.

El juez Peral recordó en su fallo que la inteligencia artificial debe ser concebida siempre como una “herramienta auxiliar del servicio de justicia, nunca como un sustituto del juicio humano”. Sostuvo que la responsabilidad final por el empleo indebido de estos sistemas recae exclusivamente en quien los utiliza, ya que la trazabilidad y fidelidad de los argumentos presentados en juicio son pilares innegociables del ejercicio de la abogacía.

Como corolario de esta conducta falaz, el tribunal impuso a la letrada una multa de $620.000, equivalente al valor de una consulta escrita vigente. Asimismo, la resolución incluyó una exhortación para que en lo sucesivo adecue su actuación a los principios de probidad y buena fe, bajo apercibimiento de sanciones mayores ante nuevas irregularidades.

Finalmente, el magistrado dispuso la remisión de copias de las actuaciones al Tribunal de Ética y Disciplina del Colegio de Abogados de Tucumán. Esta medida busca que la institución evalúe la conducta profesional en el ámbito de su competencia, sentando una fuerte advertencia a la comunidad jurídica sobre los riesgos de delegar la fundamentación legal en algoritmos sin una revisión humana exhaustiva.