Por Luz Saint Phat / [email protected]
En el Foro Económico Mundial se debatieron los avances de esta poderosa herramienta, en el marco de su creciente aplicación en el sector privado. Las claves que es necesario considerar
En el marco del último Foro Económico Mundial, que tuvo lugar entre el 15 y el 19 de enero en Davos (Suiza), uno de los principales temas de debate fue el avance de la inteligencia artificial generativa (genAI, por su acrónimo en inglés) y su aplicación en el sector privado.
Esto, considerando principalmente las oportunidades que representa la utilización de esta tecnología pero también los riesgos que conlleva.
“Reconociendo la IA como una tecnología de uso general de manera holística y observando las numerosas iniciativas dirigidas por los gobiernos sobre ella que se están desarrollando en todo el mundo, ¿cómo podemos complementar esos esfuerzos centrándonos especialmente en cómo afecta a los modelos de negocio (también a través de casos de uso de empresas y multiempresas y otras mejores prácticas) y en los riesgos industriales y sociales? ¿Cómo aportar también los marcos necesarios para contener esos riesgos?”, se preguntó esta última edición de uno de los foros económicos más importantes del mundo occiental, según se puede leer en su sitio web.
En este contexto, se sucedieron en el marco del encuentro, diversas exposiciones y mesas de debates que abordaron diferentes aristas de este tema que prontamente tendrá implicancias en todos los procesos de las diferentes cadenas productivas.
Por otro lado, y al iniciar el foro, la Unión Internacional de Telecomunicaciones (UIT), una entidad que se integra en el trabajo de la Organización de Naciones Unidas), también ahondó sobre los posibles impactos de estos nuevos desarrollos, compartiendo una interesante publicación que previamente fue publicada por el foro.
Según los autores, la inteligencia artificial generativa “se está convirtiendo en una prioridad empresarial, ayudando a optimizar costos, mejorar la calidad, aumentar la velocidad y alcanzar los objetivos de sostenibilidad”.
Aún así, y dado que es un campo de rápida evolución, los referentes sostienen que “las organizaciones deben equilibrar estas oportunidades con la mitigación de riesgos”.
“Las organizaciones ágiles están desarrollando marcos de gobierno a nivel empresaria para implementar genAI, factorizando una matriz de evaluación de riesgos”, aseguraron.
Considerando que las estimaciones globales indican que se espera que prontamente la genIA incorpore $4,4 billones anuales a la economía mundial, es necesario que los líderes del sector privado comprendan en detalle las claves de implementación.
“Las organizaciones están navegando por una compleja red de respuestas reglamentarias a la rápida evolución de la tecnología. Además del papel de los gobiernos en el desarrollo de reglas y regulaciones de IA, existe una creciente conciencia del importante papel de la autorregulación de la industria para salvaguardar los intereses de los ciudadanos y la sociedad, además de las obligaciones fiduciarias con los accionistas”, aseguraron White y Sen.
“Si bien el equilibrio entre las regulaciones gubernamentales y la inversión del sector privado en autorregulación varía de un país a otro, existe un creciente impulso para que las agencias reguladoras colaboren con la industria en el desarrollo de estándares de gobernanza genAI”, indicaron.
Seis claves
Según las opiniones que los referentes White y Sen pudieron recopilar entre los directores que se presentaron en la última edición del Foro de Davos sobre los desafíos y riesgos en la utilización de genIA, el primer punto clave es la propiedad intelectual, dado e cononcido y no autorizado uso de material protegido por derechos de autor para entrenar modelos lingüísticos grandes.
En este sentido, se advirtió de que “las organizaciones de usuarios deberían examinar detenidamente este otro riesgo de la nueva era creado por la IA” y también se indicó que “es necesario armonizar las leyes en todos los países mediante la participación de los grupos de internet pertinentes”.
Relacionado con este tema, también se señaló la “falta de reglamentación armonizada” en general.
“Las lagunas y la falta de claridad sobre la aplicabilidad de las regulaciones existentes, así como la divergencia de las regulaciones emergentes de IA plantean otro riesgo para las empresas globales”, señaló por su parte Andreas Hoffmann, asesor general y jefe de Legal y Cumplimiento de Siemens, uno de los directores consultados
“La naturaleza policéntrica y fragmentada del panorama regulatorio de la IA plantea un grave riesgo para las empresas que operan en diversos sectores y geografías”, agregó.
Por otra parte, los temas relacionados a la compliance deben enfocarse con atención ya que pueden potenciarse mediante las nuevas herramientas tecnológicas.
“Si bien el panorama regulatorio actual que rodea a la IA sigue fragmentado en todo el mundo, también ofrece oportunidades únicas para que las organizaciones den forma activamente a las mejores prácticas. Las empresas que adoptan programas responsables de cumplimiento normativa de IA desde el principio podrán garantizar que lideran con integridad”, aseveró Ulrike Schwarz-Runer, directora general y socia senior, Consejera General, BCG
“La debida diligencia, los programas de cumplimiento y la documentación, junto con las pruebas y el aprendizaje, son esfuerzos necesarios en este viaje de IA. Deben considerarse como catalizadores de la escala y el crecimiento y serán fundamentales para garantizar la confianza, la calidad y la seguridad de estas soluciones”, explicó la directiva.
Mientras, otro tema a considerar como oportunidad es la confianza. Así lo indicó Sebastian Niles, presidente y director de Salesforce al conversar con los referentes del Foro Económico Mundial.
“Manifestar el notable potencial económico y humanitario de la IA generativa va más allá de la innovación tecnológica. Se trata de confianza. Dentro de sus propias empresas e industrias, el sector privado puede modelar un enfoque basado en la confianza para maximizar los beneficios de la IA” precisó el empresario.
Esto, indicaron los referentes, se relaciona con diferentes aspectos de importancia como priorizar la transparencia (es decir, que las personas deben conocer cuándo interactúan con sistemas de IA y conocer los procesos de toma de decisión); proteger los datos, y desarrollar marcos regulatorios que contemplen y estén basados en los riesgos que se pueden presentar en toda la cadena de valor de un proceso industrial o sector económico.
Una quinta clave está relacionada con desarrollar políticas específicas dentro de las empresas. “Algunas empresas innovadoras han creado un comité de supervisión o ética de la IA para desarrollar y supervisar su estrategia de gobernanza de la IA” explicó Rishi Varma, vicepresidente sénior y consejero general, Hewlett Packard Enterprise.
“Una política interna que esté alineada con las nuevas regulaciones globales y estándares de la industria es un elemento fundamental de un enfoque efectivo de la gobernanza de la IA. La política debe identificar casos de uso de IA de alto riesgo y establecer un conjunto de estándares que se espera que cumplan los equipos involucrados en el desarrollo de dichos sistemas”, aseguró.
Finalmente, la inteligencia artificial abre una novedosa puerta en la industria de los seguros, tal como indicó Katja Roth Pellanda, Consejera General de Zurich Insurance Group.
“Las innovadoras aplicaciones de IA permiten a las compañías de seguros agilizar los procesos de suscripción, detectar el fraude de manera más efectiva y adaptar las políticas a las necesidades individuales, revolucionando las operaciones de la industria y el servicio al cliente”, puntualizó.