El Grupo de Unidades de Procesamiento Gráfico de la Facultad de Matemática tendrá la tarea a su cargo. Las aplicaciones serán destinadas al aprendizaje profundo y a la computación cognitiva a gran escala
Cada día se crean 2,5 mil millones de gigabytes de datos, lo que equivale a cerca de 170 periódicos entregados a cada hombre, mujer y niño del planeta. Además, en la actualidad, menos de 0,5% de todos estos datos son analizados y usados.
Por ese motivo IBM Argentina dona 600.000 pesos a la Universidad Nacional de Córdoba (UNC) para expandir las capacidades actuales de big data en la implementación de técnicas de aprendizaje profundo y computación cognitiva a gran escala.
Estará destinado al Grupo de Investigación en Unidades de Procesamiento Gráfico con Propósitos Generales (GPGPU) de la Facultad de Matemática, Astronomía, Física y Computación de la Universidad Nacional de Córdoba (UNC), que se enfocará en la eficiencia energética, la tolerancia de fallos y la escalabilidad.
“El temor real es el costo de no saber lo que puede ser conocido: cuál es el problema de un paciente, dónde encontrar recursos naturales críticos o entender los riesgos en nuestra economía global. Sector público y privado debemos trabajar juntos para resolver los desafíos y nos enorgullece hacerlo con la universidad”, explicó Stella Loiacono, directora de Tecnología de IBM Argentina.
La acción se enmarca en el IBM Faculty Award, programa mundial que fomenta la colaboración entre investigadores de universidades líderes y profesionales de la compañía, con el objeto de estimular el desarrollo de investigaciones innovadoras emergentes.
Respecto al reconocimiento, Oscar Reula, profesor de la UNC, investigador de Conicet y miembro del GPGPU, afirmó: “Para nosotros representa un nuevo desafío. Nos pone contentos, pues reconocen nuestro trabajo, tanto en investigación como en desarrollo. Intentamos encontrar ventanas de mejora en el área de la computación de alto desempeño y explotarlas. Si tenemos éxito, éstas representan una oportunidad única, ya que nuestros usuarios –sean científicos o empresas– adquieren una ventaja comparativa con respecto a la competencia, algo que rara vez sucede en Argentina”.
Aplicaciones
El aprendizaje profundo –deep learning, en inglés- y el uso de redes neuronales multicapa han revolucionado el reconocimiento de voz, el procesamiento del lenguaje natural y la visión artificial, entre otros. Es posible avanzar en estas áreas debido a la disponibilidad de datos, nuevos procedimientos para acelerar la formación de redes neuronales y hardware extremadamente rápido con aceleradores de unidad de procesamiento gráfico.
“Quedan desafíos críticos por resolver, como la posibilidad de extraer información útil de datos no estructurados –comentarios en redes sociales, imágenes y videos- a gran escala, es decir, en clusters de máquinas. Y esto debe ser posible en tiempo real, de manera correcta y con un bajo consumo de energía”, dijo Augusto Vega, investigador del IBM T. J. Watson Research Center que participa del proyecto.
“En los últimos dos años se crearon más datos que en todo el resto de la historia de la humanidad y debemos ser capaces de analizarlos para tomar decisiones que impactan en diferentes industrias y en nuestra vida cotidiana. Consideremos sólo la cantidad de información que podemos extraer del clima, autos conectados, Internet de las cosas y redes sociales, y cómo podríamos usarla para entender lo que sucede en nuestras ciudades”, enfatizó Loiacono.