No cabe duda de que los avances de la humanidad en el campo del conocimiento son permanentes. El progreso científico y su aplicación a partir del desarrollo tecnológico han mejorado nuestra calidad de vida de manera impensada en el pasado. Eso sí, en no pocas ocasiones su mala aplicación (la bomba atómica, por ejemplo) ha ocasionado, lamentablemente, catástrofes indeseadas. Es por eso que es imprescindible que el progreso de la ciencia vaya acompañado por pautas éticas claras que sirvan como guía y control de la actividad científica y tecnológica.
En los últimos días hemos tenido un claro ejemplo de este mandato: el reclamo que se ha hecho respecto del desarrollo de la inteligencia artificial (IA).
Su aparición amenaza con causar una revolución en el campo del conocimiento, de la producción, de la educación y demás actividades humanas.
Es que, a partir del uso de esta tecnología, se podrá entrenar a las computadoras para realizar distintas tareas a partir del procesamiento de la cantidad de datos que se les incorpore. De esta manera, la IA hace posibles tareas como si fuesen seres humanos. Es precisamente por ello que es indispensable que sea acompañada por reglas éticas que controlen e impidan abusos que produzcan más males que beneficios.
Es cierto que muchas empresas han establecido códigos éticos para regular su actividad. Por otro lado, la Unesco ha emitido una serie de recomendaciones dirigidas a los Estados. Asimismo, en estas últimas semanas se han levantado distintas voces reclamando lo mismo. La particularidad de ello es que esas voces provienen de sujetos o grupos con distintas intenciones o ideologías.
Por un lado, un grupo de expertos, entre los que se encuentra Elon Musk, firmó una carta abierta en la que pide “pausa a los experimentos de esta tecnología, dado que podrían traer aparejados grandes riesgos para la humanidad”.
En la misiva han dicho textualmente: “En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable”. Además, manifestaron: “¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes? ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos”.
China
Recientemente, con la misma intención pero para proteger otros intereses, el gobierno de China, con la intención de garantizar “el desarrollo sano y la aplicación estándar de la tecnología de IA generativa”, ha decidido imponer la realización de una “inspección de seguridad” a las herramientas desarrolladas basadas en la IA. Pero aquí la intención no es proteger a la humanidad sino controlar que los contenidos generados por la IA reflejen “los valores socialistas fundamentales y no contener contenidos relacionados con la subversión del poder del Estado”.
Sea con el objetivo que fuere, vemos que el control moral de la IA se presenta como un mandato destinado a satisfacer ciertas necesidades. Para unos, el bien de la humanidad. Para otros, el bien del partido o de la ideología. No es nuestra intención discutir aquí ese punto, que sería motivo de un análisis más profundo.
Entendemos que es indispensable regular éticamente el desarrollo científico/tecnológico para que sirva de buena manera a los intereses de las personas, y no que sea mal usada para bien de un grupo de poderosos que hagan con ello cualquier cosa; máxime cuando en el pasado, tales avances han tenido la posibilidad de ser causa de enormes daños a la humanidad.
(*) Abogado. Doctor en ciencias jurídicas
(**) Abogado. Doctor en derecho y ciencias sociales