viernes 15, noviembre 2024
viernes 15, noviembre 2024
Comercio y Justicia 85 años

Algor-Ética

ESCUCHAR
Por Jorge Fabián
Villalba (*)

“Que la Palabra y la Tradición de la fe nos ayuden a interpretar los fenómenos de nuestro mundo. La algor-ética puede ser un puente para inscribir los principios de la Doctrina Social de la Iglesia en las tecnologías digitales.” (papa Francisco)

El filósofo Nick Bostrom sostiene que una inteligencia artificial (IA) avanzada podría tener la capacidad de provocar la extinción humana, ya que sus planes pueden no implicar tendencias motivacionales humanas. No obstante, también plantea la situación contraria:  que una superinteligencia podría ayudarnos a resolver problemas tediosos y constantes en la humanidad tales como la pobreza, la enfermedad o la destrucción del planeta. 

Es importante la paradoja de Bostrom que habla del “efecto perverso”. Para explicarlo utiliza el mito del rey Midas, al desear convertir todo lo que toque en oro. Toca un árbol y se convierte en oro, incluso su propia comida. Por ello es importante que la IA pueda traspolar las intenciones que tenemos sin caer en el efecto perverso, más allá del efecto antiético.

“Debemos ser capaces de saber cómo controlar la Inteligencia Artificial (Nick Bostrom)”.

 Al incorporar la IA a los procesos de las organizaciones, es importante dotar esta nueva tecnología de valores y principios.

“Cada aspecto de nuestras vidas será transformado [por AI]”, y podría ser “el evento más grande en la historia de nuestra civilización” (Stephen Hawking).

La problemática planteada se está materializando en la Asociación sobre Inteligencia Artificial, creada por Elon Musk y Sam Altman, en la que se invita a los principales líderes tecnológicos para poder identificar dilemas éticos y prejuicios.

En tiempos actuales, muchas compañías están comenzando a formar a las personas (quienes, a su vez, están formando las máquinas) en prácticas éticas aplicadas a los algoritmos que rigen la IA.

La gestión del aprendizaje de ésta es lo que actualmente conocemos como machine learning, la cual debe contener principios universales de respeto, libertad e igualdad. 

La preocupación ética por la creación de nuevos tipos de inteligencia requiere de un exquisito criterio moral de las personas que diseñan estas nuevas formas de tecnología. El algoritmo ha de ser capaz de discernir y reconocer fallos cuando se centran en acciones sociales con repercusión que antes realizaba un ser humano.

El Algoritmo no puede dañar a personas o empresas

Las grandes organizaciones, empresas y gobiernos están centrándose en los problemas que pueden surgir en el tema de la ética de la IA para trazar consideraciones, prácticas y marcos comunes de cara al futuro. 

En el intento de que la IA logre replicar la inteligencia humana, tenemos un debate abierto entre los expertos en IA, científicos y filósofos, sobre la existencia de múltiples definiciones de inteligencia que dan lugar a diversas maneras de concebir la naturaleza y, sobre todo, el propósito de la IA.

El campo de la ética se extiende allá donde encuentra agentes dotados de autonomía e inteligencia, es decir, sujetos capaces de tomar decisiones y actuar de forma racional. En este sentido, el término “autonomía” suele emplearse en este contexto para designar la capacidad de escoger un curso de acción de forma libre, capacidad que tradicionalmente se ha identificado como un rasgo distintivo y exclusivo de los seres humanos (European Group on Ethics in Science and New Technologies, 2018).

Esta autonomía no ha de ser confundida con la capacidad que presentan otros seres vivos de dirigir sus actos.

La autonomía humana viene siempre ligada a la responsabilidad: las personas, al ser capaces de revelar sus propios motivos y razones, responden también por ello ante los actos y decisiones tomadas.

A la vista de estas consideraciones, emplear el término “autónomo” para referirse a los dispositivos provistos de IA puede llevar a confusión. Se suele afirmar que muchas de las aplicaciones, sistemas y máquinas dotados de IA son capaces de operar de forma “autónoma”, es decir, de realizar operaciones y procesos por sí mismos. Sin embargo, puesto que hasta la fecha ningún sistema o artefacto inteligente es capaz de revelar sus propios actos y decisiones de la manera como las personas son capaces, resulta erróneo calificar estos dispositivos de autónomos en el sentido ético de la palabra.

Es cierto que en el ámbito tecnológico ha proliferado el uso de dicho término para referirse simplemente a aplicaciones capaces de operar sin supervisión humana, pero, desde el punto de vista del análisis ético, el término adecuado para referirse a estos dispositivos sería “automático”, no “autónomo”.

Con todo, la existencia de aplicaciones capaces de tomar distintos cursos de acción por sí mismas no deja de plantear algunas dudas sobre la creencia de que sólo los seres humanos son capaces de actuar de forma autónoma.


(*) Escribano titular del registro Nº 706. Director de la Sala Blockchain e Inteligencia Artificial y de su Revista Indexada, de la Universidad Católica de Córdoba. Experto en tecnología blockchain aplicada

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Leé también

Más populares

¡Bienvenid@ de nuevo!

Iniciá sesión con tu usuario

Recuperar contraseña

Ingresá tu usuario o email para restablecer tu contraseña.

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?