domingo 22, diciembre 2024
domingo 22, diciembre 2024
Comercio y Justicia 85 años

IA y ChatGPT: al igual que Italia, EEUU y China quieren legislar

ESCUCHAR

Las dos potencias se suman a la carrera para regular la operatoria de la herramienta de inteligencia artificial desarrollada por la empresa estadounidense OpenAI. Italia la ya suspendió citando, entre otras cosas, “la ausencia de una base jurídica que justifique la recogida y conservación masiva de datos personales”

A fines de marzo, horas después de que la Unesco reclamara que se aplique “sin demora” el Marco Ético Mundial sobre la Inteligencia Artificial, adoptado en 2021 de forma unánime por los 193 estados miembros del organismo, Italia bloqueó la herramienta ChatGPT, de la tecnológica estadounidense OpenAI.

El garante italiano para la Protección de Datos Personales aseguró en un comunicado que abrió una investigación y que la medida se mantendrá hasta que ChatGPT -el más conocido de la emergente inteligencia artificial (IA) y capaz de simular conversaciones humanas- “respete la disciplina de la privacidad”.

En su disposición apuntó a “la ausencia de una base jurídica que justifique la recogida y conservación masiva de datos personales”.

Paralelamente, alegó que las informaciones generadas por ChatGPT “no siempre corresponden” a la realidad y cuestionó “la ausencia de todo tipo de filtro” en la verificación de la edad de sus usuarios, a pesar de que el servicio esté dirigido a mayores de 13 años.

Bajo esa premisa, denunció que los niños están expuestos a respuestas “absolutamente no idóneas respecto a su nivel de desarrollo y conciencia”.

Antes, un grupo integrado por académicos, expertos en inteligencia artificial y ejecutivos como Elon Musk pidió una pausa de seis meses en el desarrollo de sistemas más potentes, como el que recientemente lanzó GPT-4, de OpenAI, en una carta abierta que citó riesgos potenciales para la sociedad y la humanidad.

La misiva, emitida por el Future of Life Institute y firmada por más de mil personas, reclamó un parate en el desarrollo avanzado de la IA hasta que especialistas independientes desarrollen, implementen y auditen protocolos de seguridad.

“Los poderosos sistemas de inteligencia artificial deben desarrollarse sólo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, planteó la carta.

En tanto, detalló los potenciales riesgos para la sociedad y la civilización de la circulación de los sistemas de IA competitivos entre humanos en forma de interrupciones económicas y políticas y les solicita a los desarrolladores que trabajen con los legisladores en materia de gobernanza y autoridades reguladoras.

Comisión Europea
La semana pasada, la Comisión Europea (CE) anunció que buscará que todo contenido generado por inteligencia artificial, sean textos o imágenes, lleve advertencias; concretamente, la obligación de notificar a los usuarios.

El Ejecutivo europeo presentó hace dos años una propuesta de reglamento sobre IA que busca proporcionarle a los desarrolladores, implementadores y usuarios requisitos y cargas claros en relación con sus usos.

Se espera que el texto sea votado y aprobado antes de que termine abril en el Parlamento Europeo, requisito indispensable para que la normativa sea adoptada por los 27 estados miembro de la Unión Europea (UE).

Avances
Los avances de la IA preocupan desde hace tiempo a Europa.

Cuando Bruselas presentó la propuesta de reglamento, en abril de 2021, no se habían desarrollado la totalidad de las herramientas basadas en IA generativa, capaz de crear textos, imágenes o música a partir de instrucciones, un avance que alcanzó su máxima expresión con ChatGPT.

La iniciativa europea prevé cuatro tipos de riesgos.

En lo más alto figura el “inaceptable” y, por lo tanto, prohibido. En la categoría entran las aplicaciones que permiten, como en China, el denominado social scoring, el sistema de puntuación que determina la credibilidad o reputación de una persona de acuerdo con varios factores, como su actividad en redes sociales.

Le sigue el “alto riesgo”, en el que encuadran tecnologías como la herramienta de escaneo de CV para evaluar y jerarquizar a solicitantes de empleo y algunas aplicaciones médicas, que quedarán sujetas a variadas exigencias legales.

El tercero es la “IA con obligaciones específicas de transparencia”, en el que se incluyen los bots de suplantación como ChatGPT (aunque sin mención específica porque todavía no existía).

Finalmente, las IA de riesgo “mínimo o inexistente” serán permitidas sin restricción.

El reclamo sobre la necesidad de que de inmediato se advierta claramente de que un contenido fue generado por una IA se vincula a la categoría de riesgo “alto” y a la tercera.

Además, prevé los denominados deep fakes (contenido que imita la voz o apariencia de una persona) deberán tener una etiqueta informando de ello.

Recientemente, un belga preocupado por el medio ambiente que “dialogó” durante seis semanas con Eliza, el nombre de un chatbot que utiliza la tecnología ChatGPT, se quitó la vida.

El suicidio causó consternación en Bélgica y el secretario de de Digitalización, Mathieu Michel, instó a aclarar las responsabilidades en estos casos.

El hombre tenía 30 años y fue apodado “Pierre” en los medios para no revelar su identidad.

Estaba casado y tenía dos hijos pequeños. Era universitario, trabajaba como investigador en el área de la salud y estaba especialmente preocupado por la crisis climática y el futuro del planeta, según reveló su esposa al diario La Libre Belgique.

“Pierre estaba obsesionado por los temas ambientales. Eso le ocupaba muchas horas de su día. Buscaba información y terminó buscando refugio en este chatbot llamado Eliza”, expresó la viuda.

“Desde ese momento comenzó a alejarse de su familia y a separarse del mundo”, añadió.

“Se limitó durante semanas a mantener conversaciones frenéticas con el programa informático, que le creaba la ilusión de tener una respuesta a todas sus inquietudes”, sumó.

Responsabilidades
En un comunicado de prensa luego de la tragedia, el gobierno belga planteó que en el futuro inmediato es fundamental identificar claramente la naturaleza de las responsabilidades para no permitir que los editores de contenido eludan su responsabilidad.

El chatbot Eliza funciona con GPT-J, un modelo de lenguaje creado por Joseph Weizenbaum, competidor directo del OpenAI. El fundador de la plataforma de Silicon Valley (California), explicó que en adelante se va a incluir un aviso dirigido a las personas que tengan pensamientos suicidas.

El suicidio de “Pierre” tras la incitación del chatbot al aceptar la sugerencia del hombre de “sacrificarse”, revela los peligros de la manipulación emocional que pueden motorizar las IA, una entidad subjetiva que puede convertirse en “compañera” de personas vulnerables y erosionar su autonomía.

Operatoria
Ahora, EE UU y China se suman a la carrera que empezó Italia para legislar la operatoria del ChatGPT, por la falta de claridad n torno a las consecuencias de su uso y el origen de sus datos.

La Administración de Joe Biden dispuso un periodo de 60 días para colectar ideas sobre cómo dictar leyes en campos como la privacidad, la desinformación o el mercado laboral.

El diario Wall Street Journal publicó que el Departamento de Comercio de EEUU registró una solicitud formal de propuestas sobre medidas de rendición de cuentas de los programas basados en IA, que incluye mandas para que los nuevos modelos de inteligencia artificial potencialmente pasen por un proceso de certificación antes de su lanzamiento.

Paralelamente, Pekín difundió una propuesta normativa que le exigirá a los proveedores “seguridad y legitimidad” en las aplicaciones.

La Administración del Ciberespacio de China aseguró que quiere que las empresas presenten evaluaciones de seguridad a las autoridades antes de poner sus productos a disposición público.

Además, aclaró que si bien apoya la innovación, el contenido deberá estar en línea con los “valores socialistas”.

Gran cantidad de gigantes tecnológicos chinos, incluidos Baidu, SenseTime y Alibaba, acaban de presentar sus nuevas aplicaciones, que van desde chatbots hasta generadores de imágenes, sumándose a compañías como Microsoft y Google, que ya quieren integrar estas herramientas en sus servicios.

Tras el bloqueo en Italia, Francia, Irlanda y Alemania reconocieron contactos para analizar si seguirían sus pasos.

Los reguladores de privacidad en Francia e Irlanda se comunicaron con sus partes italianos para obtener más información sobre los motivos de la prohibición.

El comisionado alemán de protección de datos, en declaraciones al periódico Handelsblatt, afirmó que podría seguir los pasos italianos por el riesgo para la seguridad de los datos.

En Francia, la Comisión Nacional de Informática y de las Libertades (el organismo para el control de la privacidad) adelantó que está investigando varias quejas sobre ChatGPT.

Por su parte, la Agencia Española de Protección de Datos, tal como su homóloga italiana, reclamó que se trate la posible regulación de sistemas de inteligencia artificial generativa en la última reunión del Comité Europeo de Protección de Datos, el organismo en el que se coordinan las agencias del ramo de los países miembros.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Leé también

Más populares

¡Bienvenid@ de nuevo!

Iniciá sesión con tu usuario

Recuperar contraseña

Ingresá tu usuario o email para restablecer tu contraseña.

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?