Los recuerdos pueden ser tan difíciles de conservar para las máquinas como para los humanos. Para ayudar a comprender por qué los agentes artificiales desarrollan agujeros en sus propios procesos cognitivos, los ingenieros eléctricos de la Universidad Estatal de Ohio han analizado cuánto afecta un proceso llamado « aprendizaje continuo » a su rendimiento general.

El aprendizaje continuo es cuando una computadora está entrenada para aprender continuamente una secuencia de tareas, utilizando su conocimiento acumulado de tareas antiguas para aprender mejor tareas nuevas.

Sin embargo, un obstáculo importante que los científicos aún deben superar para alcanzar tales alturas es aprender a eludir el equivalente de aprendizaje automático de la pérdida de memoria, un proceso que en los agentes de IA se conoce como « olvido catastrófico ». A medida que las redes neuronales artificiales se entrenan en una nueva tarea tras otra, tienden a perder la información obtenida de esas tareas anteriores, un problema que podría volverse problemático a medida que la sociedad depende cada vez más de los sistemas de inteligencia artificial, dijo Ness Shroff, un académico eminente de Ohio y profesor de ciencias de la computación e ingeniería en la Universidad Estatal de Ohio.

« A medida que se enseñan cosas nuevas a las aplicaciones de conducción automatizada u otros sistemas robóticos, es importante que no olviden las lecciones que ya aprendieron para nuestra seguridad y la de ellos », dijo Shroff. « Nuestra investigación profundiza en las complejidades del aprendizaje continuo en estas redes neuronales artificiales, y lo que encontramos son conocimientos que comienzan a cerrar la brecha entre cómo aprende una máquina y cómo aprende un humano ».

Los investigadores descubrieron que, de la misma manera que las personas pueden tener dificultades para recordar hechos contrastantes sobre escenarios similares, pero recuerdan situaciones intrínsecamente diferentes con facilidad, las redes neuronales artificiales pueden recordar mejor la información cuando se enfrentan a diversas tareas en sucesión, en lugar de aquellas que comparten características similares, dijo Shroff.

El equipo, que incluye a los investigadores postdoctorales del estado de Ohio Sen Lin y Peizhong Ju y los profesores Yingbin Liang y Shroff, presentará su investigación este mes en la 40.ª Conferencia internacional anual sobre aprendizaje automático en Honolulu, Hawái, una conferencia emblemática sobre aprendizaje automático.

Si bien puede ser un desafío enseñar a los sistemas autónomos a exhibir este tipo de aprendizaje dinámico y permanente, poseer tales capacidades permitiría a los científicos ampliar los algoritmos de aprendizaje automático a un ritmo más rápido y adaptarlos fácilmente para manejar entornos en evolución y situaciones inesperadas. Esencialmente, el objetivo de estos sistemas sería que algún día imitaran las capacidades de aprendizaje de los humanos.

Los algoritmos tradicionales de aprendizaje automático se entrenan con datos todos a la vez, pero los hallazgos de este equipo mostraron que factores como la similitud de tareas, las correlaciones negativas y positivas, e incluso el orden en que se enseña un algoritmo a una tarea, son importantes en el tiempo que una red artificial retiene cierto conocimiento.

Por ejemplo, para optimizar la memoria de un algoritmo, dijo Shroff, se deben enseñar tareas diferentes al principio del proceso de aprendizaje continuo. Este método amplía la capacidad de la red para obtener nueva información y mejora su capacidad para aprender posteriormente más tareas similares en el futuro.

Su trabajo es particularmente importante ya que comprender las similitudes entre las máquinas y el cerebro humano podría allanar el camino para una comprensión más profunda de la IA, dijo Shroff.

« Nuestro trabajo presagia una nueva era de máquinas inteligentes que pueden aprender y adaptarse como sus contrapartes humanas », dijo.

El estudio fue apoyado por la Fundación Nacional de Ciencias y la Oficina de Investigación del Ejército.