Home  >   Tecnología   >   Por los avances en inteligencia artificial, llegan los códigos de ética para su uso

Por los avances en inteligencia artificial, llegan los códigos de ética para su uso

Está en juego la defensa de la especie, de la vida y de los derechos humanos, aseguran los expertos.
Ya se elaboraron los primeros “manuales”, incluso para la Justicia. Se suma el Vaticano

Los avances en inteligencia artificial están empezando a mostrar algunos atisbos de cómo será un futuro no muy lejano –coches autónomos o drones, el triunfo de la IA contra humanos en juegos como ajedrez, póker o go– y sus consecuencias con respecto al empleo, por la automatización.
Los grandes cambios futuros y su profundo impacto social levantan por igual expectativas de un mundo distinto y mejor, pero también temores fundados sobre un dominio de las máquinas en un mundo sin empleo.
La preocupación ética por la creación de nuevos tipos de inteligencia requiere de un preciso criterio moral de las personas que diseñan estas nuevas formas de tecnología. El algoritmo ha de ser capaz de discernir y reconocer fallas cuando se centran en acciones sociales con repercusión que antes realizaba un ser humano. El concepto es claro: el código no puede dañar a personas o a empresas.

Es uno de los aspectos que ha motivado posicionamientos públicos sobre el tema.

Lo que comenzó en círculos científicos, llegó a los gobiernos y ahora, al Vaticano. Los actores políticos y religiosos más importantes del mundo comienzan a pronunciarse. La Casa Blanca hizo públicos dos informes sobre IA en octubre de 2016 y sobre su efecto en la economía en diciembre del mismo año. También las universidades y la academia lo están poniendo en el centro de sus discusiones. La Universidad de Stanford publicó en septiembre de 2016 su informe sobre “Inteligencia Artificial y la vida en 2030”. El Parlamento Europeo realizó un informe sobre robótica en 2017 llamado Código Ético de Conducta y en diciembre de 2018 publicó el primer borrador de la Guía Ética para el uso responsable de la Inteligencia Artificial. Fueron 52 los expertos que trabajaron en la problemática, centrándose en el ser humano siempre bajo la luz de la defensa de los derechos fundamentales.
En los últimos días la Comisión Europea para la Eficiencia de la Justicia (Cepec) adoptó el primer texto europeo que establece principios éticos relacionados con el uso de AI en los sistemas judiciales.
Los principios son respeto a los derechos humanos, principio de calidad y seguridad, principio de transparencia y principio “bajo el control del usuario”. Finalmente, Google creó un código de ética en la inteligencia artificial: son siete puntos en los que prohíbe el desarrollo de armas autónomas. Esos puntos son beneficiar a la sociedad, evitar el sesgo de los algoritmos, respetar la privacidad, ser probado por seguridad, rendir cuentas públicamente, mantener el rigor científico, estar disponible para otros de acuerdo con los mismos principios.

Google no permitirá que su tecnología de IA sea usada para desarrollar cualquier cosa
que pueda provocar daño, incluyendo “armas u otras tecnologías cuyo propósito principal o su implementación es causar o facilitar directamente lesiones a personas”. Y la empresa prohibirá el desarrollo de tecnología de vigilancia que violara normas internacionalmente aceptadas sobre derechos humanos, o cualquier tecnología que contraviniera leyes internacionales.

Ahora, el Vaticano y las empresas tecnológicas de primera línea, como Microsoft e IBM, firmarán una “carta ética” sobre inteligencia artificial que será también ratificada por la Oficina de las Naciones Unidas para la Alimentación y Agricultura (FAO). Será en el marco de un seminario “por una inteligencia artificial humanista”, organizado por la Santa Sede, que se llevará a cabo el próximo 28 de febrero.
Allí se pedirá a empresas y organismos que suscriban una “carta ética” en la materia, según anticipó el presidente de la Pontificia Academia para la Vida, monseñor Vincenzo Paglia, organizador del encuentro.

Entre los confirmados para la reunión están el presidente de Microsoft, Brad Smith; el vicepresidente ejecutivo de IBM, John Kelly III; el presidente del Parlamento europeo, David Sassoli; y el director general de la FAO, QuDongyu.
Según explicó Paglia, la idea es plasmar, a modo de conclusión, la firma de una “carta ética” para ayudar a las empresas en un camino de evaluación de los efectos de las tecnologías ligadas a la inteligencia artificial, de los riesgos que tienen y de posibles vías de reglamentación.

“El riesgo es que, con el desarrollo de la inteligencia artificial, el acceso y la elaboración a esas tecnologías se vuelvan exclusivamente reservados a los grandes holdings económicos o a los sistemas de seguridad”, planteó Paglia.

“En otras palabras, está en juego la igualdad en la búsqueda de información, ya que si no hay una acción, las sofistificaciones estarán reservadas exclusivamente a quien pertenece a grupos privilegiados”, expresó.

En septiembre pasado, el papa Francisco pidió usar la robótica y la inteligencia artificial para el “bien común” y reclamó que los “progresos tecnológicos” se usen para “disminuir las desigualdades económicas, educativas, tecnológicas, sociales, y culturales”, al hablar frente a casi 200 participantes del encuentro de tres días sobre “El bien común en la era digital” que organizó el Vaticano junto a empresas de tecnología de todo el mundo.