jueves 21, noviembre 2024
jueves 21, noviembre 2024
Comercio y Justicia 85 años

La IA podría generar un “descuadre social” nocivo

ESCUCHAR

Durante su participación en la Cumbre Mundial de Gobierno en Dubai, Sam Altman, CEO de la empresa OpenAI y creador de ChatGPT, reclamó medidas para evitar los riesgos de la inteligencia artificial (IA).

Altman dijo que la adopción de los sistemas de inteligencia artificial puede generar un “descuadre social” capaz de generar efectos “muy nocivos” en el futuro.

En la cumbre, el empresario les reclamó a los presentes la creación de un organismo de alcance global para controlar el desarrollo de la IA que funcione de manera similar a la Organización Internacional de la Energía Atómica.

“Resulta fácil imaginar que las cosas salgan mal”, advirtió Altman. “No me interesa tanto la idea de robots asesinos caminando por la calle como los descuadres sociales muy sutiles, en los que teniendo estos sistemas en la sociedad y ninguna intención maligna en particular, las cosas salen terriblemente mal”, alertó.

Sostuvo además que no debe ser la industria de la IA –que integran compañías como OpenAI, Google, Microsoft y Meta- la que fije las normas para el crecimiento del sector.

“Todavía estamos en la fase de mucho diálogo. Todo el mundo tiene una conferencia. Alguien tiene una idea, un documento de normas, y eso está bien”, sumó, pero opinó que, si bien hay un “debate sano” en marcha, en los próximos años el mundo debe avanzar hacia un plan de acción “con implicaciones reales en el mundo”.

Hace poco menos de un año, luego de que la Unesco les pidió a los países que apliquen “sin demora” el Marco Ético Mundial sobre la Inteligencia Artificial, adoptado en 2021 de forma unánime por los 193 Estados miembros del organismo, Italia bloqueó la herramienta ChatGPT.

El garante italiano para la protección de datos personales abrió una investigación y exigió que ChatGPT “respete la disciplina de la privacidad”.

En su disposición, el organismo destacó “la ausencia de una base jurídica que justifique la recogida y conservación masiva de datos personales”.

Paralelamente, alegó que las informaciones generadas por ChatGPT “no siempre corresponden” a la realidad y cuestionó “la ausencia de todo tipo de filtro” en la verificación de la edad de sus usuarios, a pesar de que el servicio está dirigido a mayores de 13 años.

Bajo esa premisa, denunció que los niños están expuestos a respuestas “absolutamente no idóneas respecto a su nivel de desarrollo y conciencia”. La veda cayó, pero sobre el final de enero pasado la agencia de privacidad italiana volvió a cargar contra OpenAI: le notificó que halló evidencias de violaciones a leyes protectorias y le dio un mes para formular un descargo.

Pausa
Antes, un grupo integrado por académicos, expertos en IA y ejecutivos – entre ellos, Musk- pidió una pausa de seis meses en el desarrollo de “sistemas más potentes” en una carta abierta que citó riesgos potenciales para la sociedad y la humanidad.

La misiva, emitida por el Future of Life Institute y firmada por más de mil personas, reclamó un parate en el desarrollo avanzado de la IA hasta que expertos independientes desarrollen, implementen y auditen protocolos de seguridad.

“Los poderosos sistemas de IA deben desarrollarse sólo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, alertó.

En tanto, detalló los potenciales peligros para la sociedad y la civilización de la circulación de los sistemas de IA competitivos entre humanos en forma de interrupciones económicas y políticas y les solicitó a los desarrolladores que trabajen con los legisladores en materia de gobernanza y autoridades reguladoras.

Bletchley Park
A principios de noviembre pasado, líderes de todo el mundo reconocieron en una declaración conjunta que la inteligencia artificial representa un riesgo “potencialmente catastrófico” para la humanidad y alcanzaron el prime entendimiento compartido en cuanto a las oportunidades que abre y los desafíos que plantea la nueva tecnología.

Se firmó en la jornada inicial de la Cumbre de Seguridad de la IA que se celebró en Bletchley Park, Buckinghamshire, Inglaterra, donde Alan Turing inventó la primera máquina para descifrar códigos encriptados por Alemania en la Segunda Guerra Mundial.

El evento reunió a líderes políticos, gigantes tecnológicos y expertos.

Entre los participantes figuran la presidenta de la Comisión Europea, Ursula von der Leyen; el secretario general de la ONU, António Guterres, y la vicepresidenta de Estados Unidos, Kamala Harris. Altman; Elon Musk y otros referentes del sector también dieron el presente.

Un total de 28 países de todos los continentes suscribieron la denominada “Declaración de Bletchley”, un paso que marcó un hito en la cooperación internacional para abordar los riesgos emergentes relacionados con la IA sobre la base de un desarrollo seguro y responsable. Por Sudamérica, solamente la firmaron Brasil y Chile.

El documento reconoció que pueden surgir peligros por el posible uso intencional indebido o problemas no intencionados de control de la IA.

La declaración no contempló la creación de un centro de pruebas internacional en el Reino Unido, como esperaba el Gobierno británico, pero sentó las bases para la colaboración internacional futura, con próximas cumbres de seguridad programadas en Corea del Sur, en mayo, y en Francia, a fin de año.

“Este es un logro histórico que hace que las mayores potencias de IA del mundo coinciden en la urgencia de comprender los riesgos, ayudando a garantizar el futuro a largo plazo de nuestros hijos y nietos”, afirmó el primer ministro británico, Rishi Sunak.

Además, señaló que los países “declararon una responsabilidad compartida” para abordar riesgos y promover “una colaboración internacional vital en la investigación y la seguridad de la IA”.

El Gobierno de Sunak propuso formar un grupo de analistas internacionales, inspirado en el modelo del Panel Intergubernamental sobre Cambio Climático (IPCC) de la ONU.

Tanto la Unión Europea como Estados Unidos optaron por la regulación y empresas como OpenAI, Meta (Facebook) y DeepMind (Google) aceptaron hacer públicas algunas de sus reglas de seguridad sobre la IA.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Leé también

Más populares

¡Bienvenid@ de nuevo!

Iniciá sesión con tu usuario

Recuperar contraseña

Ingresá tu usuario o email para restablecer tu contraseña.

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?