lunes 25, noviembre 2024
lunes 25, noviembre 2024
Comercio y Justicia 85 años

La inteligencia artificial en el ámbito de la Justicia

ESCUCHAR

Tal como se añora en muchos ámbitos sociales que la dolarización mágicamente transforme los degradados billetes nacionales en potentes dólares americanos al momento de percibir su próximo sueldo, así también hay sectores que suponen que la inteligencia artificial (IA) digitalizará a los jueces de carne y hueso justo antes de dictar sentencia en el juicio que los involucra. Sueños lejanos de la realidad.

En cualquiera de los procesos recién mencionados es posible que -a mediano plazo- el objetivo buscado se materialice, para lo cual se deberá transitar un camino complejo que requerirá la vinculación de todas las áreas afectadas, para acordar los pilares fundamentales de ese cambio.

En lo que respecta al ámbito judicial a nivel mundial se plantean desafíos éticos y legales vinculados con la IA en la práctica del Derecho que deben ser tratados tanto por los organismos judiciales como por los colegios profesionales: 1) parcialidad, fundamentación y transparencia en las resoluciones judiciales automatizadas por IA; 2) evaluar las cuestiones éticas y los beneficios que genera la IA en el ámbito judicial; y 3) el control y supervisión de la IA así como de las empresas que la proveen.

Brevemente, la IA se define como la capacidad de una máquina para imitar el comportamiento humano inteligente, para lo que se requiere entrenar a la computadora a realizar tareas que normalmente requieren inteligencia humana, como la percepción, el reconocimiento de patrones y el proceso de toma de decisiones.

En el ámbito judicial en muchos países del mundo se está utilizando la IA para una variedad de cuestiones; por ejemplo, para predecir el resultado de un litigio mediante el método de análisis predictivo, en el que se suman como ingredientes a la jurisprudencia los registros públicos, expedientes administrativos e información relacionada para identificar patrones en datos pasados y actuales, y brindar una predicción inteligente del resultado. Por ejemplo, en 157 de 253 casos de accidentes de tránsito este tribunal resolvió a favor del embestido; un programa de IA llamado “Ross Intelligence”, que utiliza la tecnología Watson AI de IBM, puede producir un breve memorando legal en respuesta a la pregunta de un abogado.

Aplicación ética de la IA

Dada la naturaleza transformadora de la IA, es importante que los tribunales y los abogados comprendan cómo se pueden aplicar las normas éticas existentes y arraigadas al uso de la IA. Hay una serie de deberes éticos que se aplican al uso (y no uso) de la IA por parte de los abogados, incluidos los deberes de: 1) competencia (y diligencia); 2) comunicación; 3) confidencialidad; y 4) supervisión.

La representación competente del abogado requiere el conocimiento, la habilidad, la escrupulosidad y la preparación jurídica razonablemente necesarios para la representación del cliente. El deber de ser competente exige que los abogados estén informados y actualizados sobre la tecnología disponible, para evaluar si pueden mejorar sus servicios profesionales y así representar eficazmente al cliente. Bajo este deber ético, los abogados deben conocer a grandes rasgos las características de la IA y sus resultados, ya que si un abogado utiliza una herramienta que sugiere respuestas a preguntas legales, debe comprender las capacidades y limitaciones de la herramienta, así como los riesgos y beneficios de esas respuestas.

Al aplicar el deber de comunicación, el abogado debe obtener la aprobación del cliente antes de utilizar la IA, y este consentimiento debe ser informado. Para ello, primero debe entender sus funcionalidades para luego poder explicar los riesgos y limitaciones. En determinadas circunstancias, la decisión de un abogado de no utilizar la IA también puede necesitar ser comunicada al cliente, si el uso de la IA lo beneficiaría. Especialmente cuando el abogado factura las horas trabajadas, con la implementación de la IA, la carga horaria se reducirá significativamente, por lo que su falta de consulta podría tornar excesivos los honorarios.

El deber de confidencialidad exige a los abogados realizar esfuerzos razonables para evitar la divulgación involuntaria o no autorizada o el acceso no autorizado a información relacionada con la representación de su cliente. Entonces, cuando se utiliza una herramienta de IA, se deberán tomar las medidas adecuadas para garantizar que la información crítica de sus clientes esté debidamente salvaguardada. Si no se pudiera evitar proveer la información confidencial del cliente, entonces el abogado deberá consultar al proveedor de IA sobre cuál tipo de información es indispensable proporcionar; cómo se almacenará; qué medidas de seguridad existen con respecto al almacenamiento de la información y quién tendrá acceso a ella. Si no se pueden minimizar los riesgos, entonces el abogado no deberá utilizar la IA.

Finalmente, los abogados tienen la obligación ética de supervisar a los colegas y asistentes que trabajan para ellos. Históricamente se considera asistente a la persona que no es abogada, pero que realiza tareas conexas con su profesión. Ahora, por ejemplo, Estados Unidos aclaró que el asistente puede ser humano o no, por lo que los abogados están obligados a supervisar el trabajo de la IA utilizada en la prestación de servicios legales y comprender la tecnología lo suficientemente bien como para garantizar el cumplimiento de sus deberes éticos. Mínimamente deberá asegurarse de que el trabajo producido por IA sea preciso y completo y no genere un riesgo de divulgación de información confidencial del cliente. Bibliografía internacional plantea a la inversa la problemática, sosteniendo que los abogados deben evitar subutilizar la IA, lo que podría hacer que atiendan a sus clientes de manera menos eficiente. Muchos abogados que se centran en los detalles evitan utilizarla, por lo que se concluye que el mayor peligro bien podría ser la subutilización de la IA, en lugar de una excesiva dependencia de ella. En última instancia, será un acto de equilibrio.

¿La IA es imparcial?

La IA no es programada sino entrenada, por lo que su imparcialidad o parcialidad dependerá esencialmente de los casos que le hayan provisto sus desarrolladores y formadores para su entrenamiento, así como sus sesgos y prejuicios. Por ejemplo, una importante empresa lanzó recientemente una herramienta de IA que mantiene conversaciones en texto entre personas. La herramienta aprendía continuamente cómo responder según las respuestas dadas por las personas en conversaciones anteriores, comenzando a imitar los puntos de vista discriminatorios de las personas que habían usado esta herramienta. Similar experiencia sufrió el software de gestión de perfiles de delincuentes correccionales para sanciones alternativas (Compas) utilizado por algunos tribunales estadounidenses para predecir la probabilidad de reincidencia de los acusados penales. En su entrenamiento la mayoría de los reincidentes fueron afroamericanos, por lo que le asignaba muchas más probabilidades de repitencia que a los blancos. Por estas razones, es importante contar con equipos diversos que desarrollen IA así como los datos de entrenamiento, para garantizar que se minimicen las parcialidades.

La IA en sede Penal

El Parlamento Europeo emitió un informe sobre la IA en el Derecho Penal y su utilización por las autoridades policiales y judiciales, destacando que la IA ofrece grandes oportunidades en el ámbito policial y de la justicia penal, en particular en lo que respecta a la lucha con mayor eficacia contra determinados tipos de delitos, especialmente los financieros, el blanqueo de capitales y la financiación del terrorismo, así como la ciberdelincuencia. 

En este ámbito, las aplicaciones de IA incluyen tecnologías de reconocimiento facial; reconocimiento automático de matrículas; la identificación por voz; el reconocimiento del habla; lectura de labios; vigilancia auditiva (algoritmos de detección de disparos); así como la investigación y el análisis autónomos de bases de datos identificadas; la predicción -actuación policial predictiva y análisis de puntos críticos de delincuencia-; los instrumentos de detección del comportamiento; la vigilancia de las redes sociales -rastreo (scraping) y recopilación de datos para detectar conexiones-; entre muchas otras funcionalidades. Por su parte, en el ámbito judicial, las herramientas de IA pueden utilizarse para calcular las probabilidades de reincidencia y determinar la libertad condicional o decidir sobre la sentencia, como se mencionó párrafos arriba.

La comisión destacó que, paralelamente a estos beneficios, la IA entraña una serie de riesgos potenciales, como la opacidad en la toma de decisiones; diferentes tipos de discriminación; la intrusión en la vida privada; desafíos para la protección de los datos personales, la dignidad humana y la libertad de expresión e información. Riesgos que se agravan en el ámbito policial y de la justicia penal, ya que pueden afectar a la presunción de inocencia, a los derechos fundamentales de libertad y seguridad de la persona y los derechos a una tutela judicial efectiva y a un juicio justo.

Por ello, la comisión recomienda que todas las soluciones de IA para las autoridades policiales y judiciales respeten plenamente los principios de dignidad humana, no discriminación, libertad de circulación, presunción de inocencia y derecho de defensa, incluido el derecho a guardar silencio, libertad de expresión e información, libertad de reunión y asociación, igualdad ante la ley, igualdad de armas y el derecho a una tutela judicial efectiva y a un juicio justo, de conformidad con la Carta y con el Convenio Europeo de Derechos Humanos; destacando que debe prohibirse todo uso de aplicaciones de la IA que sea incompatible con los derechos fundamentales.

Con respecto a la herramienta de IA desarrollada o utilizada por las autoridades policiales o judiciales debe, como mínimo, ser segura, robusta, fiable y apta para su finalidad, así como respetar los principios de minimización de datos, rendición de cuentas, transparencia, no discriminación y explicabilidad, y que su desarrollo, despliegue y uso deben estar sujetos a una evaluación de riesgos y a una estricta comprobación de los criterios de necesidad y proporcionalidad, debiendo guardar proporción las salvaguardas con los riesgos identificados; destacando que la confianza de los ciudadanos en el uso de la IA desarrollada y utilizada en la Unión está supeditada al pleno cumplimiento de estos criterios.

Si los seres humanos se basan únicamente en datos, perfiles y recomendaciones generados por máquinas, no podrán realizar una evaluación independiente. Una confianza excesiva en la naturaleza aparentemente objetiva y científica de las herramientas de IA, sin tener en cuenta la posibilidad de que sus resultados sean incorrectos, incompletos, irrelevantes o discriminatorios, producirá consecuencias negativas potencialmente graves, particularmente en el ámbito de las actividades policiales y judiciales.

Es imperioso que las autoridades adquieran confianza y conocimientos para cuestionar las recomendaciones algorítmicas o hacer caso omiso de ellas; por lo que recomienda tener expectativas realistas sobre estas soluciones tecnológicas y no prometer soluciones policiales perfectas y la detección de todas las infracciones que se cometan.

Conclusión

La IA por más novedosa y asombrosa que sea, no deja de caracterizarse como una herramienta al servicio de las personas, que como cualquier otra, podrá ser tan buena o tan mala como lo decida la persona que la utiliza.

Por ello, se recomienda fervientemente su implementación en aquellos aspectos o circunstancias cuyos resultados tengan un bajo nivel de riesgo, así como se alerta sobre sus alarmantes perjuicios en los que la vida, la propiedad y los derechos fundamentales están en juego, como es en la mayoría de los casos que se presentan en sede judicial.

Lo esencial es que las mujeres y los hombres que la implementen no se rindan a sus pies sino que la cuestionen y desafíen constantemente, por lo que será esencial que eliminen sus barreras emocionales y etarias para conocerla y entender su funcionamiento, así siempre reinará la inteligencia humana por sobre la artificial.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Leé también

Más populares

¡Bienvenid@ de nuevo!

Iniciá sesión con tu usuario

Recuperar contraseña

Ingresá tu usuario o email para restablecer tu contraseña.

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?