viernes 22, noviembre 2024
viernes 22, noviembre 2024
Comercio y Justicia 85 años

Estamos ante dos grandes cajas de Pandora: la IA y el cambio climático

ESCUCHAR

Por Thomas L. Friedman (*)

El diccionario Merriam-Webster señala que una “caja de Pandora” puede ser “cualquier cosa que parezca ordinaria, pero que puede producir resultados perjudiciales impredecibles”. Últimamente, he pensado mucho en las cajas de Pandora, porque los homo sapiens estamos haciendo algo que nunca habíamos hecho: levantar las tapas de dos cajas gigantes de Pandora al mismo tiempo, sin tener ni idea de lo que podría salir de ahí.

Una de estas cajas de Pandora se denomina “inteligencia artificial” (IA), y la ejemplifican programas como ChatGPT, Bard y AlphaFold, los cuales son testigos de la capacidad de la humanidad para confeccionar, por primera vez y como si fuese la obra de un dios, algo que se acerca a la inteligencia general y supera mucho la capacidad cerebral con la que evolucionamos de manera natural.

La otra caja de Pandora se llama “cambio climático” y con ella los humanos estamos por primera vez conduciéndonos, nuevamente, como si fuésemos unos dioses, de una época climática a otra. Hasta ahora, ese poder estaba limitado, en gran medida, a las fuerzas naturales relacionadas con la órbita de la Tierra alrededor del Sol.

Para mí, mientras levantamos las tapas al mismo tiempo, la gran pregunta es: ¿qué tipo de regulaciones y ética debemos implementar para manejar lo que salga gritando de las cajas?

Admitámoslo, no comprendimos cuánto se iban a usar las redes sociales para socavar los dos pilares de cualquier sociedad libre: la verdad y la confianza. Así que, si abordamos la IA generativa con la misma negligencia —si volvemos a seguir el imprudente mantra de Mark Zuckerberg en los albores de las redes sociales, “muévete rápido y rompe cosas”—, qué te puedo decir: vamos a romper cosas más rápido, con más fuerza y más profundidad de lo que nadie puede imaginar.

“Nos faltó imaginación cuando se desataron las redes sociales y luego no logramos responder con responsabilidad a sus consecuencias inimaginadas una vez que permearon las vidas de miles de millones de personas”, me dijo Dov Seidman, fundador y presidente de HOW Institute for Society y LRN. “Perdimos mucho tiempo —y nuestro camino— pensando de manera utópica en que, al conectar a la gente y darle voz, sólo podían salir cosas buenas de las redes sociales. No podemos permitirnos fracasos similares con la IA”.

Así que existe “un imperativo urgente —tanto ético como regulatorio— para que estas tecnologías de IA sólo se utilicen para complementar y elevar lo que nos hace singularmente humanos: nuestra creatividad, nuestra curiosidad y, en el mejor de los casos, nuestra capacidad para tener esperanza, ética, empatía, determinación y colaborar con otros”, agregó Seidman (miembro del consejo del museo que fundó mi mujer, Planet Word).

“El adagio de que un gran poder conlleva una gran responsabilidad nunca ha sido más cierto. No podemos permitirnos otra generación de tecnólogos que proclamen su neutralidad ética y nos digan: ‘Oye, sólo somos una plataforma’, cuando estas tecnologías de IA están permitiendo tipos exponencialmente más poderosos y profundos de empoderamiento e interacción humana”.

Por estas razones, le pedí su opinión a James Manyika, quien dirige el equipo de tecnología y sociedad de Google, así como Google Research —donde se lleva a cabo gran parte de la innovación en IA—, sobre la promesa y el desafío de esta tecnología.

“Debemos ser audaces y responsables al mismo tiempo”, dijo.

“La razón para ser audaces es que en muchos ámbitos distintos la IA tiene el potencial de ayudar a la gente con las tareas cotidianas, de enfrentar algunos de los mayores desafíos de la humanidad —como, por ejemplo, la atención médica— y lograr nuevos descubrimientos e innovaciones científicos, así como mejoras de productividad que llevarán a una mayor prosperidad económica”.

Manyika agregó que lo hará “dándole acceso a gente de todas partes a la suma del conocimiento mundial: en su propia lengua, en su modo de comunicación preferido, por medio de texto, voz, imágenes o código” en un teléfono inteligente, la televisión, la radio o un libro electrónico. Mucha más gente podrá obtener la mejor ayuda y las mejores respuestas para mejorar su vida.

Sin embargo, Manyika agregó que también debemos ser responsables y citó varias inquietudes. En primer lugar, estas herramientas deben estar alineadas por completo con los objetivos de la humanidad. En segundo lugar, en las manos equivocadas estas herramientas podrían hacer un daño enorme, tanto si hablamos de la desinformación como de cosas que se pueden falsificar a la perfección o del hackeo. (Los malos siempre son los primeros en adoptarlas).

Por último, “hasta cierto grado, la ingeniería va a la cabeza de la ciencia”, explicó Manyika. “Es decir, ni siquiera las personas que construyen los llamados grandes modelos lingüísticos en los que se basan productos como ChatGPT y Bard entienden por completo cómo funcionan ni el alcance total de sus capacidades”. Agregó que podemos diseñar sistemas de IA de una capacidad extraordinaria, a los que se les pueden enseñar unos pocos ejemplos de aritmética, un lenguaje poco común o explicaciones de chistes, y luego, con una precisión asombrosa, pueden empezar a hacer muchas más cosas tan sólo con esos fragmentos. En otras palabras, todavía no sabemos por completo cuántas cosas más, buenas o malas, pueden hacer estos sistemas.

Por lo tanto, necesitamos cierta regulación, pero debe hacerse con cuidado y de manera iterativa. La talla única no les quedará a todos.

¿Por qué? Bueno, si lo que más nos preocupa es que China supere a Estados Unidos en el ramo de la IA, debemos acelerar nuestra innovación en IA, no ralentizarla. Si queremos democratizar de verdad la IA, tal vez queramos que su código sea abierto. No obstante, éste puede ser explotado. ¿Qué haría el grupo Estado Islámico con el código?.. Así que debemos pensar en el control de armas. Si nos preocupa que los sistemas de IA agraven la discriminación, las violaciones de la privacidad y otros daños sociales divisivos, como lo hacen las redes sociales, debemos tener regulaciones ahora.

Si queremos aprovechar todas las mejoras de productividad que se esperan de la IA, debemos centrarnos en crear nuevas oportunidades y redes de seguridad para todos los asistentes jurídicos, investigadores, asesores financieros, traductores y las personas que trabajan en tareas de repetición, quienes podrían ser remplazados hoy, y tal vez los abogados y programadores, que serían remplazados mañana. Si nos preocupa que la IA se vuelva superinteligente y empiece a definir sus propios objetivos, sin tener en cuenta el daño humano, debemos detenerla de inmediato.

Este último peligro es tan real que la semana pasada Geoffrey Hinton, uno de los diseñadores pioneros de los sistemas de IA, anunció que iba a abandonar el equipo de IA de Google. Hinton señaló que, en su opinión, Google estaba actuando de manera responsable en el despliegue de sus productos de IA pero que quería tener la libertad para hablar sobre todos los riesgos. “Es difícil ver cómo se puede evitar que los malos la utilicen para cosas malas”, le dijo Hinton a Cade Metz, del Times.

Si sumamos todo, el resultado es que, como sociedad, estamos a punto de tener que decidir sobre algunas concesiones muy importantes mientras introducimos la IA generativa.

La regulación gubernamental, por sí sola, no nos salvará. Tengo una regla sencilla: mientras más rápido sea el ritmo del cambio y más poderes divinos desarrollemos los humanos, más importará todo lo antiguo y lento; todo lo que aprendiste en la escuela dominical o de dondequiera que tomes una inspiración ética, importará más que nunca.

Porque, mientras más modifiquemos la escala de la IA, mayor debe ser la modificación de la escala de la regla dorada: trata a los demás como quieras que te traten. Porque, debido a los poderes cada vez más divinos que nos estamos otorgando, ahora podemos afectarnos los unos a los otros más rápido, barato y profundo que nunca.

Sucede lo mismo con la caja de Pandora climática que estamos abriendo. Como explica la NASA en su sitio web: “En los últimos 800.000 años, ha habido ocho ciclos de glaciaciones y periodos más cálidos”. La última edad de hielo terminó hace unos 11.700 años y le dio paso a nuestra era climática actual —conocida como Holoceno (que significa “totalmente reciente”)—, la cual se caracteriza por tener estaciones estables que permitieron una agricultura estable, la construcción de comunidades humanas y, a final de cuentas, la civilización como la conocemos hoy.

“La mayoría de estos cambios climáticos se la atribuye a variaciones muy pequeñas en la órbita de la Tierra, que modifican la cantidad de energía solar que recibe nuestro planeta”, señala la NASA.

Bien, pues despídete de eso. Ahora hay un debate intenso entre los ecologistas —y los expertos en geología de la Unión Internacional de Ciencias Geológicas, la organización profesional responsable de definir las eras geológicas y climáticas de la Tierra— en torno a si los humanos hemos salido del Holoceno para entrar en una nueva era, llamada Antropoceno.

Ese nombre proviene “de ‘antropo’, que significa ‘hombre’, y ‘kainos’, que significa ‘nuevo’, porque la humanidad ha causado extinciones masivas de especies vegetales y animales, ha contaminado los océanos y ha alterado la atmósfera, entre otros impactos duraderos”, detalla un artículo publicado en Smithsonian Magazine.

Los científicos del sistema terrestre temen que esta era creada por el hombre, el Antropoceno, no tenga ninguna de las estaciones predecibles del Holoceno. La agricultura podría convertirse en una pesadilla.

Sin embargo, aquí es donde la IA podría ser nuestra salvadora: acelerando los avances en la ciencia de los materiales, la densidad de las baterías, la energía de fusión y la energía nuclear modular segura, que permitan a los seres humanos gestionar los impactos del cambio climático que ahora son inevitables y evitar los que serían inmanejables.

No obstante, si la IA nos brinda un mecanismo para amortiguar los peores efectos del cambio climático —si, de hecho, la IA nos da una oportunidad—, será mejor que lo hagamos bien. Es decir, con regulaciones inteligentes para modificar con rapidez la escala de la energía limpia y con valores sostenibles a escala. Si no difundimos una ética de la conservación —una reverencia por la naturaleza y todo lo que nos da sin costo, como el aire y el agua limpios—, podríamos acabar en un mundo en el que la gente se sienta con derecho a conducir por la selva ahora que su Hummer es totalmente eléctrico. Eso no puede ocurrir.

En conclusión: estas dos grandes cajas de Pandora se están abriendo. Que Dios nos salve si adquirimos poderes divinos para partir el mar Rojo pero no logramos modificar la escala de los Diez Mandamientos.

(*) Ganador de tres premios Pulitzer. Autor de siete libros, incluido From Beirut to Jerusalem.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Leé también

Más populares

¡Bienvenid@ de nuevo!

Iniciá sesión con tu usuario

Recuperar contraseña

Ingresá tu usuario o email para restablecer tu contraseña.

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?