“No leo los diarios ni veo las noticias económicas ni políticas. Sólo me interesan aquellas relacionadas con la inteligencia artificial porque el tema me da mucho miedo; más que los políticos”, me comentó un taxista días pasados.
Este comentario, cada vez más frecuente, me llevó a revisar otra vez el documento emitido por el Colegio de Abogados de Estados Unidos (American Bar Association – ABA), especialmente el capítulo relativo a la “Accountability” por las consecuencias generadas por la inteligencia artificial (IA). Accountability se traduciría como “rendición de cuentas”, aunque es un concepto más amplio.
La ABA insta a las organizaciones que diseñan, desarrollan, implementan y usan sistemas y capacidades de IA a asegurar que sus productos, servicios y sistemas estén sujetos a la autoridad, la supervisión y el control humanos, debiendo responder y rendir cuentas por las consecuencias que pudieren causar, a menos que hayan tomado medidas razonables para mitigar ese daño o lesión.
Rendir cuentas y la autoridad, supervisión y control humanos son conceptos jurídicos estrechamente interrelacionados. En el contexto de la IA, presentan preocupaciones claves, dado que se usa cada vez más en una variedad de contextos para tomar decisiones que pueden afectar significativamente la vida de las personas. Por ejemplo, en la evaluación de los postulantes de empleo; al decidir quién tiene acceso a préstamos; en la evaluación de probabilidad de que los acusados de delitos sean reincidentes; al evaluar las garantías y calidad de los inquilinos, entre tantas otras.
En un ámbito más lejano a nosotros pero crítico para la paz mundial, la Agencia Americana de Proyectos de Investigación Avanzada de Defensa (Darpa) anunció que está iniciando un programa para evaluar el uso de la IA para tomar decisiones complejas en las operaciones militares modernas, basadas en algoritmos confiables para operaciones de misión crítica del Departamento de Defensa.
Distintas organizaciones mundiales han reconocido la importancia de la rendición de cuentas con los sistemas de IA. Por ejemplo, el NIST (Instituto Nacional de Estándares y Tecnología) en su Marco de Gestión de Riesgos de IA (AI RMF 1.0) declaró que las organizaciones deben establecer y mantener mecanismos, funciones y responsabilidades de rendición de cuentas, más un sistema de incentivos para que la gestión de riesgos sea eficaz.
La IA confiable -continúa- depende de la rendición de cuentas, que a su vez presupone transparencia, y ésta refleja hasta qué punto la información sobre un sistema de IA y sus resultados está disponible para las personas que interactúan con dicho sistema, independientemente de si son conscientes de que lo están haciendo.
Cuando las consecuencias son graves, como cuando la vida y la libertad están en juego, los desarrolladores e implementadores de IA deben incrementar proporcional y proactivamente sus prácticas de transparencia y responsabilidad.
En esta línea, Australia emitió el marco voluntario Ocho Principios Éticos de AI, entre los cuales se incluye la rendición de cuentas, declarando que las personas responsables de las diferentes fases del ciclo de vida del sistema de IA deben ser identificables y responsables de los resultados y debe habilitarse la supervisión humana.
La rendición de cuentas es importante dada la creciente preocupación por comprender la toma de decisiones de IA y garantizar la equidad en los modelos, incluso con respecto al posible impacto discriminatorio de ciertos sistemas.
Por ejemplo, Amazon inició un programa para automatizar la contratación mediante el uso de un algoritmo para revisar los currículum. Sin embargo, el programa tuvo que suspenderse después de que se descubrió que discriminaba a las mujeres en ciertos puestos técnicos, como ingeniero de software, porque el software analizaba las credenciales de su base de empleados existente, que era predominantemente masculina. Además, los investigadores encontraron un sesgo de género y tipo de piel con programas comerciales de análisis facial, con una tasa de error de 0,8% para hombres de piel clara, frente a 34,7% para mujeres de piel oscura.
En el ordenamiento jurídico de Estados Unidos como en el de Argentina, para ser responsable una entidad debe tener un estatus legal específico que le permita ser demandado, es decir ser una persona física o jurídica, por lo que ni los robots ni los algoritmos tienen un status legal comparable. Por lo tanto, es importante que las entidades legalmente reconocidas sean responsables de las consecuencias de los sistemas de IA, incluido cualquier daño que sus acciones o las de los sistemas de IA causen a otros, a menos que hayan tomado medidas razonables para mitigar ese daño o lesión, y lo puedan demostrar.
Por lo cual, argumentar que la culpa fue del algoritmo y no de su creador o titular es claramente insostenible, por estos argumentos y también porque esa persona o empresa sí se está beneficiando de los resultados de ese algoritmo. Aprovecha sus virtudes y desconoce sus defectos.
(*) Abogado. Especialista en derecho informático