Inicio / Academia / Datos, el combustible de la Inteligencia Artificial. Algoritmos, el motor

Datos, el combustible de la Inteligencia Artificial. Algoritmos, el motor

“Oye Siri, abrir Spotify” esta es una frase cada vez más común en nuestro día a día. Le hablamos a un artefacto electrónico. Siri, al igual que otros asistentes personales virtuales, no es más que un algoritmo computacional que “aprendió” sobre millones de datos. Fue “entrenado” en la tarea de asociar un sonido con un texto, un texto con un significado y un significado con la acción más probable asociada a la intención del usuario. Siri “aprendió de los datos”, es la frase que solemos utilizar cuando hablamos de “Aprendizaje Automático” (Machine Learning).

En la base de la Inteligencia, se encuentra el aprendizaje, aunque para las máquinas aún esté limitado a aprender tareas puntuales que se pueden abstraer de un conjunto de datos específico.

Hoy sentimos que estamos transitando un camino, tal vez sin retorno, hacia la Inteligencia Artificial tan anunciada, por ejemplo, en la película de Kubrick (1968) donde el asistente virtual HAL decidió no obedecer a los tripulantes de la nave.

Un poco antes en 1959, había surgido el término Machine Learning. En IBM algunos investigadores se interesaron en crear máquinas que aprendiesen de los datos, como el actual Siri o el ficticio HAL. Actualmente estos algoritmos se usan en las todas las áreas del quehacer humano, como: agricultura, minería, marketing, seguridad computacional, entre otras.

Desde el Departamento de Computación e Informática de la Facultad de Ingeniería de la Universidad de Playa Ancha (UPLA) se realizan acciones para contribuir a que la época de la Inteligencia Artificial sea de mejor calidad y menos apocalíptica como en la citada película. Desde el Laboratorio de Data Science (datoslab.cl), nuestra investigación se orienta a capturar y almacenar grandes volúmenes de datos, proponer nuevos métodos de visualización y análisis de datos, estudiar y mejorar algoritmos de Aprendizaje Automático, y buscar mejores procesos de optimización.

En la investigación de análisis de datos, liderada por el Dr. Miguel Guevara, se capturan grandes volúmenes de datos desde la Web para ser analizados con métodos estadísticos y computacionales para construir visualizaciones y modelos que recomienden acciones a futuro. Este es el caso del Espacio Investigación (Research Space), una red compleja que determina las conexiones y distancias entre áreas de investigación para “mapear” el estado actual de instituciones y países con el fin de predecir futuros saltos a áreas cercanas pero no explotadas. (ver Figura 1)

En el último tiempo, hemos desarrollado nuevos métodos basados en redes neuronales recurrentes para predecir la velocidad del viento y/o generación en granjas eólicas hasta con 24 horas de antelación. En el sector energético, contar con esta información es esencial para programar adecuadamente la cantidad de energía que otras plantas requerirán para satisfacer la demanda eléctrica. Así, una predicción más precisa podrá generar una programación del sistema más eficiente, mejorando la confiabilidad del suministro eléctrico y ahorrando costos que podrían traducirse en una reducción de los precios finales vistos por los usuarios. Esto ha sido parte del proyecto Fondecyt Nº1170123, donde el Dr. Carlos Valle es co-investigador.

En nuestro proyecto Fondecyt/Iniciación N° 11180524, liderado por el Dr. Franklin Johnson, proponemos nuevas técnicas para la resolución de problemas de optimización, integrando metaheurísticas bioinspiradas y algoritmos de Aprendizaje Automático.

Las metaheurísticas que se inspiran en la naturaleza, tales como algoritmos genéticos, “Colonias de Hormigas”/Ant Colony Optimization (ACO) y las “Colonias artificiales de abejas”/Artificial Bee Colony (ABC), entre otros, han ganado relevancia en la resolución de problemas de optimización dado que son capaces de presentar un buen rendimiento utilizando recursos computacionales limitados, más aún cuando se abordan problemas de gran complejidad. Esto es especialmente relevante hoy en día cuando se tienen grandes volúmenes de datos, complejamente relacionados y la capacidad de procesamiento de los mismos es ciertamente limitada.La idea de fondo es permitirles a estos algoritmos la capacidad de aprender y auto-configurarse para adaptarse a diferentes problemas y que estos avances puedan materializarse en nuevos softwares (Solvers) que permitan resolver diferentes problemas aplicados.

En definitiva, si no queremos terminar como en la película de Kubrick, prisioneros de nuestro propio computador algorítmico programado heurísticamente (Heuristically programmed ALgorithmic Computer, asisten HAL en la película), requerimos visualizaciones de datos que nos ayuden a entender fenómenos complejos, mejores modelos matemáticos, algoritmos más precisos y procesos más óptimos, como los que estamos desarrollando en la UPLA.

Dr. Miguel R. Guevara Albornoz Doctor en Ingeniería Informática, USM. Director del Laboratorio de Data Science, DatosLab.cl, UPLA.
Dr. Franklin Johnson Parejas Doctor en Ingeniería Informática, PUCV. Director Departamento de Computación e Informática, UPLA.
Dr. Carlos Valle Vidal Doctor en Ingeniería Informática, USM Académico del Departamento de Computación e Informática, UPLA.

Fuente: Ediciones Especiales de El Mercurio de Valparaíso, publicado el 30 de junio de 2019.

Pruebe también

Investigadores en flora y fauna UPLA visitaron estero El Sauce en Laguna Verde

La jornada se realizó en el marco del proyecto de incubación “Puesta en Valor del Humedal estero El Sauce, de la localidad rural de Laguna Verde, propiciado por la Dirección General de Vinculación con el Medio UPLA, a cargo de la Dra. Cecilia Rivera.