Home  >   Opinión   >   La inteligencia artificial y sus ventajas para el hombre

La inteligencia artificial y sus ventajas para el hombre

inteligencia artificial

Diariamente aparecen noticias sobre los avances tecnológicos, las cuales generan fuertes críticas relativas al impacto que tienen en la vida

  Por Sylvia E. Testa*

Los debates éticos que se generan alrededor de la inteligencia artificial no son nuevos. Desde hace mucho tiempo se habla de las máquinas que piensan y tienen la capacidad de realizar los trabajos humanos. Diariamente, aparecen noticias sobre los avances que generan fuertes críticas relacionadas con los impactos de su uso, pasando inadvertidas las ventajas que proporcionan a los seres humanos y el control que tenemos sobre ellas.
El primer debate formal sobre la inteligencia artificial fue antes de su nacimiento, más específicamente en 1943, cuando McCulloch y Pitts desarrollaron la primer neurona artificial y sugirieron que las redes neuronales artificiales podrían desarrollar la capacidad de aprender. Los científicos partieron de varias fuentes, principalmente del funcionamiento de las neuronas en el cerebro y la teoría de computación de Alan Turing, uno de los padres de la ciencia de la computación y precursor de la informática moderna.

Posteriormente, en 1957, el investigador y premio Nobel Herbert Simon abrió otra discusión al predecir que para la década del 70 las computadoras podrían ganarle al campeón mundial de ajedrez y que su capacidad aumentaría rápidamente hasta resolver problemas a la par de la capacidad de la mente humana.
Más tarde, en 1969, Papert y Minsky, trabajando en el campo de la inteligencia artificial conexionista y la psicología cognitiva, publicaron el libro Perceptrons, estableciendo el paralelismo entre la percepción humana y el perceptrón (modelo electrónico basado en la forma de organización y almacenamiento del cerebro humano).
Veinte años después, cuando se produjo la convergencia de esas disciplinas a la neurociencia cognitiva computacional, apareció el concepto de modelos cognitivos como sistemas de procesamiento que contienen propiedades computacionales inspiradas en el comportamiento humano. Imaginemos las discusiones suscitadas cuando investigadores de esa línea establecieron la siguiente analogía funcional: la mente es al cerebro como el software es al hardware.
Es cierto, la relación entre la biología y la tecnología es posible. La explicación es bastante compleja pero, para resumir, es porque los cerebros y las computadoras se comunican en dialectos de la misma lengua, ambos codifican la información en impulsos o señales.

A partir de 1991 comenzó a emplearse el término soft computing o inteligencia computacional, que combinaba la inspiración en el razonamiento lingüístico humano, en el cerebro humano y en la evolución de especies, dando lugar a la inteligencia inspirada en la naturaleza (algoritmos de resolución de problemas inspirados en el comportamiento colectivo de colonias de insectos sociales u otras sociedades de animales). No es difícil imaginar las críticas realizadas a los sistemas expertos, las redes neuronales artificiales, la lógica difusa, los algoritmos genéticos y las técnicas de optimización inspiradas en los modelos biológicos. En esos años, además de críticas aparecieron las preguntas sobre el potencial de la inteligencia artificial porque para los investigadores la máquina ya superaba a los seres humanos por su alta capacidad de procesamiento y su eficacia.
Acercándonos en el tiempo, la pregunta sobre el pensar de las máquinas, la creatividad, el sentido común, las emociones y el aprendizaje de propias experiencias generó nuevos debates pero también nuevos desafíos para los científicos del siglo XXI, cuyo objetivo es construir un cerebro artificial.
En 2014, una reconocida revista científica publicó un artículo titulado “El nuevo siglo del cerebro”, en el cual propone la utilización de herramientas tecnológicas para colaborar con los neurólogos en el análisis de los circuitos cerebrales.

Las tendencias científicas para las próximas décadas ponen su foco en la combinación de la cognotecnología y la rama conexionista de la inteligencia artificial (redes neuronales artificiales) avanzando tras el camino del conectoma humano. Su objetivo es reproducir, como un sistema computacional, el mapa de las conexiones neuronales del cerebro. Se busca descubrir uno de los grandes misterios de la ciencia: el conocimiento del cerebro humano y la forma en que da lugar el pensamiento y la conciencia, mediante la utilización de herramientas tecnológicas.
Hasta el momento, el único conectoma construido es el de un diminuto gusano; el conectoma humano es mucho más complejo, puesto que nuestro cerebro tiene miles de millones de neuronas, con altísimo nivel de hiperconectividad. Aunque no se sabe con seguridad, los neurocientíficos han especulado que quizás los recuerdos están almacenados en las conexiones interneuronales, y tal vez otros aspectos de nuestra identidad personal, como la personalidad y los sentimientos. Sin duda, en un futuro lejano esto marcará un punto de inflexión en la historia humana, ya que así como los cerebros humanos crean tecnología avanzada, esa tecnología nos ayudaría a conocer nuestros propios cerebros.
Un nuevo debate está abierto: reflexionemos sobre la transferencia del cerebro, porque si se pudiera replicar la mente y transferirla a un material distinto, también sería posible clonar mentes. Entonces surge la siguiente pregunta: ¿en qué situación estamos en torno a los principios y regulaciones para terminar con las discusiones y aprovechar estos avances tecnológicos?

Por un lado, hace unos años se comenzó a hablar de la neuroética, que reflexiona sobre los avances científicos del estudio del cerebro y se encarga de la discusión práctica sobre cómo hacer investigaciones en esta área de manera ética y de interrogarse acerca de sus implicancias filosóficas. Hace unos meses se anunció la creación del Ethics and Governance of Artificial Intelligence Fund, cuyo objetivo es asegurar que la inteligencia artificial beneficie a la sociedad y minimice su daño potencial, utilizando la lógica y la investigación para fomentar la transparencia, integrar principios éticos y abordar diversas disciplinas y perspectivas.
Por otro lado, las compañías líderes también están trabajando en estos programas, entendiendo que la tecnología que cambiará al mundo conlleva importantes implicaciones, para lo que determinan algunos de los principios éticos a seguir en cada uno de sus desarrollos: deben estar sujetos a la aprobación y verificación de la sociedad no sólo con criterios técnicos; deben mejorar y ampliar la capacidad humana permaneciendo dentro del control del hombre; sus resultados deben divulgarse mediante mecanismos transparentes.
¿Existe suficiente comunicación sobre los principios éticos, normas y regulaciones que rigen los nuevos desarrollos para que la sociedad tome conocimiento, se relaje y acompañe el crecimiento? Porque la falta de información puede llevarnos a hacer más hincapié en los avances, generando en la sociedad debates y discusiones, en vez de difundir y resaltar las ventajas que las nuevas tecnologías proporcionan a los seres humanos.

* Profesora de Sistemas inteligentes y de Inteligencia de negocios en la universidad CAECE