El magistrado será investigado por el Consejo Nacional de Justicia (CNJ) de ese país. Se advirtió que, si se aplica el ChatGPT, se deben reforzar los deberes de cautela, supervisión y gobernabilidad en la producción
El Consejo Nacional de Justicia (CNJ) de Brasil abriría una investigación contra un juez federal brasileño que utilizó la inteligencia artificial para redactar una sentencia, pero por error incluyó una supuesta sentencia del Superior Tribunal de Justicia Regional como jurisprudencia en la argumentación, la que resultó ser inexistente.
El caso se suma a otros donde ChatGPT “inventa” contenido, como ocurrió con un abogado de Nueva York que adjuntó una serie de supuestos precedentes que resultaron inexistentes y que derivó inclusive en una sanción para los letrados.
En el caso de referencia, el abogado del caso advirtió la circunstancia al Departamento Regional de Asuntos Internos de la Justicia Federal de la 1° Región, donde se consideró que se trató de un mero error por la sobrecarga de trabajo y se archivó el expediente que ahora vuelve a reflotar.
Por su parte, el Tribunal Regional Federal de la 1° Región, con la firma del juez federal Néviton Guedes, Corregidor Regional de la Justicia Federal de la 1ª Región dio a conocer la Circular Coger 33/2023 dirigida a los jueces y funcionarios donde se recuerda que si bien el Consejo Nacional de Justicia en 2020 y bajo la Resolución 332/2020 de 31 artículos permitía a los jueces utilizar inteligencia artificial (IA) para el ejercicio de sus funciones, lo hacía siguiendo una serie de reglas y parámetros entre los que se disponía que debía cumplir con un criterio ético de transparencia, que los datos utilizados en el proceso de aprendizaje automático (machine learning) debían provenir de fuentes seguras preferentemente gubernamentales que puedan ser rastreadas y auditadas y que la autoridad competente siempre tenía que hacer un análisis de la solución brindada por la IA y cuando se la utilice en la redacción de resoluciones judiciales requería de una supervisión del magistrado competente, tarea con la cual también debían cooperar otros funcionarios, pasantes o colaboradores implicados.
Además la circular disponía que los modelos de inteligencia artificial generativos (LLM) si bien pueden ser una herramienta útil para corregir textos o realizar otras actividades auxiliares de la oficina judicial no fueron concebidos para servir como fuentes fiables de investigación e información, por lo que “corren el riesgo de proporcionar inexactos sobre hechos, lugares y personas y de brindar información poco fiable”, sumado a que también existe un riesgo de que información sensible o confidencial de un caso pueda verse expuesta por ser suministrada al programa.
Por ello y a raíz del caso donde el juez incurrió en la utilización de precedentes inexistentes, recomendaron que no se utilicen herramientas abiertas de IA generativa para buscar jurisprudencia que no hayan sido aprobadas por alguno de los órganos de control del Poder Judicial, a la vez que establecieron que había que reforzar los deberes de cautela, supervisión y gobernabilidad en la producción y uso de la IA en el poder judicial y advirtieron sobre la responsabilidad del magistrado competente en relación al uso de la IA en los servicios judiciales, ante las ventajas y desventajas que ello trae aparejado.