Lo presentó Maximiliano Ferraro de la Coalición Cívica. Busca crear certificaciones de buenas prácticas, implementar un registro de riesgos significativos, promover la tecnología en pequeñas y medianas empresas, como así también regular la responsabilidad y transparencia
La Inteligencia Artificial conquistó un lugar central en la agenda cotidiana desde la popularización del sistema ChatGPT y con ello aparece la necesidad de regular su funcionamiento ético.
En la Argentina no contamos con ninguna normativa que regule la inteligencia artificial, sin perjuicio de las denominadas “Recomendaciones para una Inteligencia Artificial Fiable”, aprobadas por la Subsecretaría de Tecnologías de la Información de la Jefatura de Gabinete de Ministros (Disposición 2/20).
Si bien esta tecnología comenzó a desarrollarse a mediados de 2015, hace relativamente poco tiempo que las personas tienen acceso a su uso. En efecto, entre fines de 2022 y comienzos de 2023 aumentó de forma exponencial el uso masivo de herramientas de IA.
En este contexto, recientemente se presentó en la Cámara de Diputados de la Nación un nuevo proyecto de ley de regulación de la Inteligencia Artificial que es impulsado por Maximiliano Ferraro, diputado nacional de la Coalición Cívica.
La iniciativa busca establecer un marco legal con el objetivo de “crear certificaciones de buenas prácticas, implementar un registro de riesgos significativos, promover la inteligencia artificial en pequeñas y medianas empresas, como así también fomentar la responsabilidad y transparencia algorítmica de nuevas tecnologías en respeto del bien común, el estado de derecho y la protección de la autonomía individual”.
El proyecto comienza enumerando el objeto y actores de la IA, para luego definir una serie de principios tales como el “crecimiento inclusivo, desarrollo sostenible y bienestar; valores y equidad centrados en el ser humano; transparencia y explicabilidad; robustez, seguridad y protección; responsabilidad; prevención de riesgos y posibles daños; cooperación público-privada; y control de la vigilancia estatal”, entre otras cuestiones.
También propone la creación Ad Honorem del Consejo Asesor de Inteligencia Artificial, conformado por ocho personas con “trayectoria reconocida en el ámbito y formación académica en la materia, y deberán proceder paritariamente del sector privado y público”, para aplicar la normativa y “elaborar planes de prevención de posibles peligros en innovaciones tecnológicas, emitir recomendaciones no vinculantes y estimular las buenas prácticas algorítmicas en innovaciones”. También “deberá establecer procedimientos ágiles que fomenten la participación, educación, toma de conciencia y consulta por parte de la ciudadanía para garantizar que las decisiones que se tomen sean justas y representen los intereses de todas las partes involucradas”.
Además se crea un registro público de “Sistemas de Decisión Automatizada de Riesgo Significativo”, entre los cuales se encontrarán todos los actores de la IA que “puedan generar eventuales daños o peligros que se entienda prioritario prevenir causados por la evolución de los procesos de digitalización, gestión de datos, robotización, inteligencia artificial u otros procesos innovadores que puedan derivar en problemas no previstos”. Junto a esta propuesta se suma un “programa de certificaciones de buenas prácticas algorítmicas”.
Por último, se propone la creación del Programa Federal de Inteligencia Artificial, robótica y automatización de la República Argentina. “El estado de derecho debe tomar por las riendas muchos cambios sociales que se están produciendo como consecuencias de avances tecnológicos vertiginosos. Debemos promover la creatividad emprendedora y minimizar los riesgos de la utilización irresponsable de nuevos desarrollos”, concluye.
La Unión Europea
La Unión Europea marcó un hito histórico al consensuar la primera normativa global sobre inteligencia artificial (IA). La ley se aprobó en marzo con 523 votos a favor, 46 en contra y 49 abstenciones y llegó tras declaraciones a nivel internacional, como los principios de la Organización para la Cooperación y el Desarrollo Económico (OCDE) de 2019, o las recomendaciones sobre la ética de la IA de la Unesco, adoptadas por los 193 Estados miembro en noviembre de 2021.
Ahora, se espera que la ley sea respaldada por el Consejo de la Unión Europea, lo que se descuenta que pase en abril, y que el texto definitivo se publique oficialmente en mayo. A partir de ahí, rigen los plazos para la implementación.