viernes 22, noviembre 2024
viernes 22, noviembre 2024
Comercio y Justicia 85 años

Un ligero triunfo antropológico en tiempos algocráticos

ESCUCHAR
Por Armando S. Andruet (h) twitter: @armandosandruet

He tenido ocasión de hacer varios comentarios vinculados con los desafíos antropológicos y desde las humanidades en general, a nuestro vivir en tiempos atravesados por la convivencia imprescindible, de algún modo, con altas tecnologías y que en una variable cuasi doméstica de ello, vienen a conformar lo que se ha dado en llamar “sociedades algocráticas”. Esto es, atravesadas -y en buena medida también diagramadas- por algoritmos. 

En dicho contexto algocratizado es dificultoso pensar cómo habrán de ser los caminos que se tendrán que transitar para postular una reinstalación de una proposición reflexiva y excluyentemente humana, cuando parece ser que todo aquello que no tiene una asistencia colaborativa y/o cooperativa de la inteligencia artificial (IA) es mirado con cierta sospecha de ser incompleto, inconsistente, inactual, inadecuado y cuantas más defecciones se le pueda atribuir. 

Sin duda que la IA no ha inaugurado en el último quinquenio su gobierno sobre nuestros actos ni mucho menos: son varios años hacia atrás que deberíamos remontarnos para encontrar alguna práctica que, de manera visible o invisible, no se encuentre inficionada o gestionada por alguna forma de IA. 

Sin embargo, sin duda lo que no podemos ignorar, es que en la última década ella se ha puesto de resalto en manera ostensible, esto es, no se la ha querido minimizar sino todo lo contrario. Expresamente se la ha puesto de manifiesto, como si su participación en el evento fuera, al fin y al cabo, un sello IRAM de calidad de algo, a saber: eficacia, eficiencia, transparencia, igualdad, responsabilidad, cortesía, etcétera.

Respecto a ello debo decir, aunque nos coloque un poco debajo de nuestra propia autoestima antropológica, que cuando ciertos sistemas de adjudicación de alguna naturaleza resultan administrados excluyentemente por IA, se presentan en apariencia como más justos comparativamente que cuando son cumplidos bajo el baremo humano.

Aunque también hay que señalar que, probablemente, no se pueda decir del primero de los nombrados, que sea equitativo en situaciones específicas, como lo podrá ser el otro administrado por personas humanas. Siempre he pensado que un sistema supuestamente justo, sin equidad, es una contradicción sistémica y hace imposible predicar entonces de él justicia alguna. Hay sólo conformidad con un modelo que se ha considerado adecuado y mejor, pero no justicia. 

Obviamente, para brindar consistencia a la mencionada tesis de un cierto gobierno de la IA, ya sea completamente visibilizada o invisibilizada, corresponde advertir que ésta es mucho más que el hipnotizante modelo del autómata turco del siglo XVIII. Si bien es cierto que tiene ella una cuota de automatización, puesto que por ello es computacional, en rigor hay que comprender la IA como un software instruido de una manera tal que, además de cumplir con una metodología inscripta de funcionamiento y acerca de lo que debe buscar, hacer, etcétera ha recibido también una serie de instrucciones especiales, las cuales le permiten hacer muchas más cosas que aquel otro software que no ha recibido tales facultades, del cual podríamos predicar -en sentido al menos metafórico- que se comporta como un auténtico autómata. 

Las IA son softwares en las cuales se ha desarrollado un conjunto de algoritmos que no son otra cosa que secuencias de pasos, un protocolo, que se debe seguir para alcanzar el resultado que con tales acciones se pretende. Yuval Harari entiende que el presente siglo estará gobernado por los algoritmos y los define como “un conjunto metódico de pasos que pueden emplearse para hacer cálculos, resolver problemas y alcanzar decisiones. Un algoritmo no es un cálculo concreto sino el método que se sigue cuando se hace el cálculo” (Homo Deus. Bs.As.: Debate, pág. 100). 

Naturalmente, en la medida en que los desarrollos tecnológicos son más potentes y en que los estudios vinculados con la capacidad de instruir a la IA -por sus diseñadores- se ha mejorado, los resultados en la ejecución no dejarán de sorprendernos, ya sea por la rapidez con la que hacen cosas, por la exactitud con la cual se resuelven los problemas que se presentan como también por el bajo costo con el cual todo ello se realiza. 

Además -y allí está lo capital- también algunos software de IA han sido dotados de un conjunto de instrucciones y capacidades operativas que, naturalmente, no vuelven dichas IA cognitivas sino que les brinda una mayor relevancia de funciones matemáticas que habrán de cumplir, mediante las que puede esa misma IA hacer una serie de operaciones que a ninguno de nosotros se nos pasan por alto por su eficacia, a la vez que nos deslumbran.

Ese plus que se le ha aditado al monocromático software de IA lo convierte en una entidad -ahora- policromática, porque ha recibido la posibilidad de aprender ciertas cuestiones, y es lo que conocemos como la impronta de machine learning que ha recibido una dotación específica su algoritmo, mediante un entrenamiento -enseñanza- para poder reconocer “patrones” que, a su vez, no son otra cosa que datos y que luego seguirán advirtiendo en cuanto presentes o ausentes al cumplir su función específica. 

En realidad, en el mundo cibernético todo es “dato”; por ello también se ha concluido que la religión del futuro es el “dataismo” y, de allí, quizás mejor que nunca, aquella definición tan cara al marxismo de que la “religión es el opio de los pueblos”; siguiendo la línea anterior habría que decir que “el dataismo es el nuevo opio de los pueblos”.

Mediante la función de machine learning, las máquinas habrán de poder resolver situaciones o tomar decisiones que sus propios programadores no han tenido en cuenta en su construcción; quizás el ejemplo de los automóviles autónomos pueda ser una muestra de ello. Con independencia de que el mencionado software de IA que guía el automóvil ha sido enseñado con decenas de miles de imágenes -que seguramente alguna persona, en algún país subdesarrollado revisó cuidadosamente por horas y días, por pagos de miseria- que tiene ínsita la facultad de aprender de casos no previstos con anterioridad para, así, ampliar su espectro asociativo de acción ante la aparición de un nuevo evento.

Dicho aprendizaje, modernamente, se complementa con una manera de realizarlo que no es meramente sumatoria de mayor número de casos o frecuencias sino que aspira a poder asimilarlos lo más semejante a cómo lo realizaría un humano y no meramente de una manera maquínica. 

Para imitar la manera humana se han dado elementos generativos dentro del mismo algoritmo, de un modelo de redes neuronales, y que es un tipo de aprendizaje profundo (deep learning) y es lo que pone en cercanía a la IA con el modo de pensar humano y que tanto perturba a tecnofóbicos y ha permitido que se promuevan tesis bastante alarmantes, como la de Ray Kurzweil, con la inquietante idea de la “singularidad tecnológica”.

A la luz de este desarrollo, en modo alguno menor que al cual asistimos, quiero hacer algunos juicios que, en realidad, nos revitalicen como personas humanas. Aunque los seguidores de Peter Singer señalarán que lo adecuado es hablar de “animales humanos” para dejar el espacio a otros “animales no humanos” que han sido segregados por los humanos. Quizás se admita en el futuro, una tercera categoría: “animales maquínicos”, que ya no serán ‘sintientes’ como los animales sino quién sabe cuál adjetivización habrán de poseer.

Lo cierto es que desde hace algunos años, en requerimiento de un mejoramiento de la IA, cuando estamos por utilizar un servicio digital o ingresar a algunos sitios web, se nos solicita que demostremos que somos “personas humanas#, cumpliendo con el código reCaptcha requerido. 

Quizás los tiempos por venir, que habrán de estar más atravesados por la IA a nivel macro, institucional y de servicios y en su versión personal, a partir de la utilización en los espacios domésticos, académicos, sociales, laborales, profesionales de los chatbot al estilo de GPT-4, nos habrá de permitir poner en duda si el autor intelectual de algo, es una “persona humana” o una IA. 

Pues será tal momento una buena ocasión para recuperar una cuota de autoestima antropológica, cruzando lanzas con los posthumanistas y los deseosos de la singularidad tecnológica, requiriendo que las nombradas presentaciones, entonces, cuenten con un isologo que evidencie que su autor ha sido una construcción maquínica de IA. Propongo una gestión colectiva en tal sentido.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Leé también

Más populares

¡Bienvenid@ de nuevo!

Iniciá sesión con tu usuario

Recuperar contraseña

Ingresá tu usuario o email para restablecer tu contraseña.

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?