Un juez de Esquel, Chubut (Argentina), se encuentra en el centro de la polémica luego de utilizar inteligencia artificial para redactar una sentencia, lo que derivó en la anulación de la condena y en una investigación sobre su actuación.

El magistrado, Carlos Rogelio Richeri, había condenado el 4 de junio de 2025 a Raúl Amelio Payalef a dos años y seis meses de prisión por robo simple. Sin embargo, la Cámara Penal de Esquel advirtió que parte de la sentencia contenía un mensaje que evidenciaba el uso de un asistente de inteligencia artificial generativa, presuntamente ChatGPT. La frase en cuestión decía: “Aquí tienes el punto IV reeditado, sin citas y listo para copiar y pegar”.

Este hallazgo generó inquietud sobre la transparencia y trazabilidad del razonamiento judicial. La Cámara consideró que la falta de supervisión humana y la ausencia de registro sobre las indicaciones dadas al asistente de IA impedían reconstruir el proceso de decisión del juez, equiparando la sentencia a una respuesta dogmática o inmotivada.

 

Sentencia y juicio anulados

Como consecuencia, se anuló tanto la sentencia como el juicio que la precedió, y se ordenó la realización de un nuevo juicio ante un juez distinto. Además, el caso fue remitido al Superior Tribunal de Justicia de Chubut para investigar el alcance de las irregularidades y determinar responsabilidades.

La situación adquirió mayor visibilidad cuando el propio juez difundió un video en redes sociales simulando una interacción con ChatGPT y comentando la sentencia, lo que generó un debate sobre la ética de compartir detalles de procesos judiciales y la influencia de la exposición digital en la percepción pública de la justicia. Expertos señalaron que, aunque la intención podía ser transparentar el proceso, la publicación terminó amplificando la polémica.

Este episodio también abrió la discusión en la comunidad judicial sobre la necesidad de establecer protocolos claros para el uso de herramientas de inteligencia artificial en la redacción de sentencias.

Los legalistas también coincidieron en que la experiencia de Esquel evidencia la importancia de que cualquier asistencia tecnológica sea supervisada y documentada, garantizando que la motivación y fundamentación de los fallos permanezcan verificables y consistentes con los principios legales vigentes.

El caso marca un precedente sobre los desafíos que plantea la incorporación de la inteligencia artificial en la administración de justicia y resalta la urgencia de capacitar a los operadores judiciales en su uso responsable, sin comprometer la calidad y legitimidad de las decisiones judiciales.