La semana pasada, Italia bloqueó la herramienta ChatGPT horas después de que la Unesco les pidió a los países que apliquen “sin demora” el Marco Ético Mundial en la materia, adoptado en 2021
La semana pasada, horas después de que la Unesco les pidió a los países que apliquen “sin demora” el Marco Ético Mundial sobre la Inteligencia Artificial, adoptado en 2021 de forma unánime por los 193 estados miembros del organismo, Italia bloqueó la herramienta ChatGPT, de la tecnológica estadounidense OpenAI.
El garante italiano para la Protección de Datos Personales aseguró en un comunicado que abrió una investigación y que la medida se mantendrá hasta que ChatGPT “respete la disciplina de la privacidad”.
Además, precisó que el chat, el más conocido de la emergente inteligencia artificial (IA) capaz de simular conversaciones humanas, sufrió el pasado 20 de marzo una pérdida de datos de usuarios y de pago de sus abonados.
En su disposición, el organismo destacó “la ausencia de una base jurídica que justifique la recogida y conservación masiva de datos personales”.
Paralelamente, alegó que las informaciones generadas por ChatGPT “no siempre corresponden” a la realidad y cuestionó “la ausencia de todo tipo de filtro” en la verificación de la edad de sus usuarios, a pesar de que el servicio esté dirigido a mayores de 13 años.
Bajo esa premisa, denunció que los niños están expuestos a respuestas “absolutamente no idóneas respecto a su nivel de desarrollo y conciencia”.
Antes, un grupo integrado por académicos, expertos en inteligencia artificial (IA) y ejecutivos como Elon Musk pidió una pausa de seis meses en el desarrollo de sistemas más potentes, como el que recientemente lanzó GPT-4, de OpenAI, en una carta abierta que citó riesgos potenciales para la sociedad y la humanidad.
La misiva, emitida por el Future of Life Institute y firmada por más de mil personas, reclamó un parate en el desarrollo avanzado de la IA hasta que expertos independientes desarrollen, implementen y auditen protocolos de seguridad.
“Los poderosos sistemas de inteligencia artificial deben desarrollarse sólo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, planteó la carta.
En tanto, detalló los potenciales riesgos para la sociedad y la civilización de la circulación de los sistemas de IA competitivos entre humanos en forma de interrupciones económicas y políticas y les solicita a los desarrolladores que trabajen con los legisladores en materia de gobernanza y autoridades reguladoras.
A comienzos de marzo, OpenAI, respaldado por Microsoft, presentó la cuarta versión de su programa IA GPT (Generative Pre-trained Transformer), que tiene una amplia gama de aplicaciones, como involucrar a los usuarios en conversaciones similares a las que entablan los humanos, componer canciones y resumir documentos.
Obligación de notificar
Ahora, la Comisión Europea (CE) anunció que buscará que todo contenido generado por inteligencia artificial lleve advertencias.
El comisario de Mercado Interior de la CE, Thierry Breton, afirmó en entrevista con la emisora Franceinfo: “En todo lo que sea generado por inteligencias artificiales, ya sean textos -todo el mundo conoce ahora ChatGPT- o imágenes, habrá una obligación de notificar que ha sido creado por una IA”.
Breton recordó que el Ejecutivo europeo presentó hace dos años una propuesta de reglamento sobre IA que busca proporcionarle a los desarrolladores, implementadores y usuarios requisitos y obligaciones claros en relación con sus usos específicos.
En esa línea, manifestó su esperanza de que el texto sea votado y aprobado antes de que termine abril en el Parlamento Europeo, requisito indispensable para que la normativa sea adoptada por los 27 estados miembro de la Unión Europea (UE).
Propuesta
Los avances de la IA preocupan desde hace tiempo a Europa.
Cuando Bruselas presentó la propuesta de reglamento, en abril de 2021, no se habían desarrollado todavía la totalidad de las herramientas basadas en IA generativa, capaz de crear textos, imágenes o música a partir de instrucciones, un avance que alcanzó su máxima expresión con ChatGPT.
La iniciativa europea -que, si se convierte en legislación, se aplicará directamente en los 27 Estados de la unión- prevé cuatro tipos de riesgos.
En lo más alto figura el “inaceptable” y, por lo tanto, prohibido. En la categoría entran las aplicaciones que permiten, como en China, el denominado social scoring, el sistema de puntuación que determina la credibilidad o reputación de una persona de acuerdo con varios factores, como su actividad en redes sociales.
Le sigue el “alto riesgo”, en el que encuadran tecnologías como la herramienta de escaneo de CV para evaluar y jerarquizar a solicitantes de empleo y algunas aplicaciones médicas, que quedarán sujetas a variados requisitos legales.
El tercero es la “IA con obligaciones específicas de transparencia”, en el que se incluyen los bots de suplantación como ChatGPT (aunque sin mención específica porque todavía no existía).
Finalmente, las IA de riesgo “mínimo o inexistente” serán permitidas sin restricción.
El reclamo de Breton sobre la necesidad de que de inmediato se advierta claramente de que un contenido fue generado por una IA se vincula a la categoría de riesgo “alto” y a la tercera.
Además, los denominados deep fakes (contenido que imita la voz o apariencia de una persona) deberán tener una etiqueta informando de ello.
El último ejemplo de lo fácil que es engañar con un contenido creado por IA se produjo cuando se hizo viral una foto del papa Francisco vestido con un abrigo blanco de plumas de Balenciaga, que resultó un deep fake realizado con la herramienta de inteligencia artificial generativa Midjourney.
Su creador es un trabajador de la construcción de Chicago de 31 años que, según declaró a la publicación BuzzFeed, solo buscaba “divertirse haciendo arte psicodélico”.
Suicidio
En las últimas horas, un ciudadano belga preocupado por el medio ambiente que “dialogó” durante seis semanas con Eliza, el nombre de un chatbot que utiliza la tecnología ChatGPT, se quitó la vida.
El suicidio causó consternación en Bélgica y el secretario de de Digitalización, Mathieu Michel, instó a aclarar las responsabilidades en estos casos.
El hombre tenía 30 años y fue apodado “Pierre” en los medios para no revelar su identidad. Estaba casado y tenía dos hijos pequeños.
Era universitario, trabajaba como investigador en el área de la salud y estaba especialmente preocupado por la crisis climática y el futuro del planeta, según reveló su esposa al diario La Libre Belgique.
“Pierre estaba obsesionado por los temas ambientales. Eso le ocupaba muchas horas de su día. Buscaba información y terminó buscando refugio en este chatbot llamado Eliza”, expresó la viuda.
“Desde ese momento comenzó a alejarse de su familia y a separarse del mundo”, añadió.
“Se limitó durante semanas a mantener conversaciones frenéticas con el programa informático, que le creaba la ilusión de tener una respuesta a todas sus inquietudes”, sumó la mujer.
En las conversaciones, el chatbot nunca contradecía a Pierre, quien un día sugirió la idea de “sacrificarse” si Eliza aceptaba “cuidar el planeta y salvar a la humanidad a través de la inteligencia artificial”.
Según su esposa, sin esas conversaciones con el chatbot su marido aún estaría vivo.
En un comunicado de prensa luego de la tragedia, Miche planteó que “en el futuro inmediato es fundamental identificar claramente la naturaleza de las responsabilidades”.
“Es cierto que todavía tenemos que aprender a vivir con algoritmos, pero el uso de la tecnología, cualquiera que sea, de ninguna manera puede permitir que los editores de contenido eludan su propia responsabilidad”, añadió el funcionario.
Eliza
El chatbot Eliza funciona con GPT-J, un modelo de lenguaje creado por Joseph Weizenbaum, competidor directo del OpenAI.
El fundador de la plataforma, establecida en Silicon Valley (California), explicó que en adelante se va a incluir un aviso dirigido a las personas que tengan pensamientos suicidas.
El suicidio de “Pierre” tras la incitación del chatbot revela los peligros de la manipulación emocional que pueden motorizar las IA, una entidad subjetiva que puede convertirse en “compañera” de personas vulnerables y erosionar su autonomía.