A ninguno de nosotros se nos escapa que el impacto de las tecnologías, especialmente las vinculadas con los desarrollos de las herramientas de inteligencia artificial (IA), cada vez tienen una presencia más evidente en la mayoría de las acciones que las personas tenemos. Su presencia es omnicomprensiva y nada de lo que hace el humano le resulta ajeno a la IA. La presencia en todos los espacios humanos, generada por la capacidad protoplástica de la IA, hace que la dependencia de ella se convierta también en patológica, tal como sabemos que ocurre en no pocas personas.
Cabe recordar que la Unesco, varios años atrás, al advertir acerca de dicho fenómeno, realizó un proceso de exploración, consulta y finalmente de elaboración de lo que se dio en llamar las “Recomendaciones éticas sobre la IA” en el año 2021, que -sin duda- se convirtieron ellas en el primer instrumentos internacional que brindó orientaciones acerca de la manera adecuada y sobre todo ética, en que corresponde establecer las relaciones de operatividad y uso de la IA.
Dichas “Recomendaciones” fueron un insumo central para los diferentes andamiajes normativos, vinculantes o no, que globalmente se fueron produciendo; empezando por la ya aprobada “Ley Europea sobre IA” y presente en casi la mayoría de instrumentos que se han dictado a tal efecto.
En el marco de tales “Recomendaciones” con especial énfasis la Unesco determinó los diferentes niveles de riesgo de la utilización de la IA, para lo cual se tenía en cuenta -entre otras cosas- en qué tipo de acciones cumplía su labor cooperativa o sustitutoria de la realización humana.
Entre tales ámbitos los espacios relacionados con la función jurisdiccional ocupan un lugar por demás destacado, toda vez que están en juego allí, los debidos respetos que la IA debe acordar a los derechos humanos y, con ello, a las prácticas que de algún modo implican hacer juzgamientos de personas, en las que el acceso a Justicia, el respeto al debido proceso y todas las garantías procesales que se deben asegurar. También, una práctica judicial -asistida con IA- lo debe ser, acorde con los códigos de conducta que imponen la materialización del cumplimiento de virtudes y/o principios éticos, especialmente asegurando con ello la independencia, imparcialidad e integridad. Por todas esas razones, además de otras, la ya vigente “Ley de inteligencia artificial de la Unión Europea” clasifica como de “alto riesgo” los sistemas de IA que están destinados a ser utilizados por una autoridad judicial.
En ese marco, un año atrás, se puso en marcha una labor de construcción de un resultado que se aspiraba lograr y que se formalizara como las “Directrices de la Unesco para el uso de sistemas de IA en juzgados y tribunales”. El circuito comenzó con una encuesta que se hiciera a un conjunto significativo de expertos a escala global y vinculados al contexto judicial, acerca de las perspectivas de utilización, responsabilidad y sistemas de IA que podían o no, ser utilizadas en dicho ámbito. Luego se fueron haciendo talleres consultivos con nuevos expertos, alcanzando un primer borrador, que luego merecería otros dos textos preparatorios. Por este tiempo se ingresa en la fase final, no ya de elaboración, sino de consulta abierta a la sociedad mundial, a la luz del alcance que se ha tenido del tercer borrador.
Dicha consulta pública, disponible en el sitio https://forms.microsoft.com/pages/responsepage.aspx?id=Uq5PHbM5-kuwswIpVrERlGyDhI2FxRtEoFdD5uX792NUQkk1RUdXVFlHR1AxMUhLMVlRNTdQNE4yRS4u, requiere del conocimiento del tercer borrador y luego responder a un cuestionario en línea, que solicita criterios definidos por parte del colaborador, acerca de cuestiones a anexar y/o retirar y algunos criterios centrales. Dicha consulta pública fenece a las 23:49 CEST de mañana día 5 de septiembre. Dichos comentarios serán luego consolidados y se obtendrá el texto final que se aguarda su disponibilidad para noviembre de 2024.
Naturalmente no pretendemos ahora brindar un estudio analítico acerca del borrador y del que hemos seguido su proceso, puesto que es extenso y está sostenido por un aparato de fuentes muy valioso para quienes quiera reconocer con claridad, el estado del arte de la IA en el contexto de los poderes judiciales en el mundo y en menor medida, en la práctica profesional abogadil.
Obviamente, las razones por las que Unesco se ocupa de la problemática IA-Justicia se pueden colegir del primer párrafo que explica la razón de ser del documento que se proyecta y que reza: “En 2023, una encuesta de Unesco (…) reveló que el 93% de los operadores judiciales encuestados estaban familiarizados con las tecnologías de IA y que el 44% ya utilizaba herramientas de IA como ChatGPT para actividades relacionadas con el trabajo. Además, solo el 9% de los operadores judiciales encuestados informaron que sus organizaciones habían emitido directrices o proporcionado capacitación relacionada con la IA, lo que subraya la necesidad de orientación sobre el uso de sistemas de IA en juzgados y tribunales”.
Las “Directrices” aspiran a mostrar los potenciales beneficios que puede implicar la utilización de la IA en los tribunales pero no ignora los impactos negativos que también se pueden producir y para los cuales se proponen dichas instrucciones, que operan tanto a nivel individual de sujetos vinculados a la práctica judicial (jueces y operadores del sistema) como a nivel organizacional del sistema de justicia. Para ello en sustancia, se habrán de brindar un conjunto de “principios”, una significativa cantidad de “recomendaciones” y también acciones que señalen la manera de “implementar y utilizar” las herramientas de la IA, como apoyo a la administración de justicia. Con todo ello se aspira mejorar la calidad del trabajo en los poderes judiciales mejorando la gestión de los tribunales, la redacción de documentos como la automatización de tareas y apoyo a los procesos de toma de decisiones.
Como contrapartida de lo dicho, se quiere evitar toda adopción defectuosa o negligente de los sistemas de IA, con la gravedad que ello importaría y que bien se resume en el socavamiento de la confianza ciudadana en el poder judicial. Bien se dice en el borrador, y preferimos tomar algunos aspectos nada más y dejar al costado mucho otros, en razón de mostrar con claridad meridiana el espíritu de las “Directrices”, acorde con lo que está en juego, como son los derechos de las personas. Se apunta: “Las herramientas de IA no sustituyen el razonamiento jurídico calificado, el juicio humano ni la interpretación personalizada (…) Estas herramientas de IA no pueden sustituir al razonamiento jurídico calificado porque no tienen fundamento ni comprensión contextual de un problema jurídico”.
Las “Directrices” se presentan en tres secciones: 1) Principios, 2) Orientación específica para las organizaciones que forman parte de judicial y 3) Orientación específica para miembros individuales del Poder Judicial.
La propuesta en la sección 1 suma los siguientes 13 principios: Protección de los derechos humanos; Adoptar sistemas de IA basados en el respeto a los derechos humanos; Proporcionalidad; Seguridad; Seguridad de la información; Conciencia y uso informado; Uso transparente; Rendición de cuentas y auditabilidad; Explicabilidad; Precisión y confiabilidad; Supervisión humana; Diseño centrado en el ser humano; Responsabilidad y gobernanza y Colaboración entre múltiples partes interesadas.
La sección 2 tiene cuatro áreas concretas de análisis: Sobre la adopción de herramientas de IA (dicho lugar se subclasifica en nueve campos); Sobre los procedimientos y normas internas (con ocho subcampos); Sobre el talento humano (dos subcampos) y Sobre el uso de IA generativa (tres subcampos).
La sección 3 -que no mira la organización Poder Judicial sino a suss miembros individuales – se ocupa de las siguientes cuestiones: Preparación para el uso de herramientas de IA; Sobre el uso de herramientas de IA; Sobre el uso de sistemas de IA generativa.
No corresponde ahora desagregar más comentarios; solamente señalamos que dentro del borrador no se advierte una clara diferencia entre la materia decisional y la administrativa que dentro del sistema de justicia se brinda. No se advierte tampoco una vinculación estrecha, cuando debería ser por defecto, entre la utilización de IA y los códigos de conducta de los jueces.
Sin duda, la mayoría de los poderes judiciales habrá de encontrar mucho alimento para las alicaídas alforjas que sobre esta materia tienen, ya sea a nivel organizacional como singular de los actores judiciales. Deberá pensarse en una capacitación sostenida, formalizada y éticamente controlada en IA para que los poderes judiciales afronten el desafío sin correr riesgos innecesarios y de alto costo institucional.