Un nuevo estudio muestra que las estrategias de aprendizaje del cerebro humano son diferentes a la forma en la que aprenden los sistemas de Inteligencia Artificial (IA). Para ser más “inteligentes”, las redes neuronales artificiales deben adquirir dos capacidades cruciales de nuestro cerebro: sumar nuevos conocimientos de manera más rápida y espontánea, y preservar intacta la memoria o los datos acumulados mientras se incorpora nueva información.
Investigadores de la Universidad de Oxford, en el Reino Unido, han establecido un nuevo principio para explicar cómo el cerebro humano ajusta las conexiones entre las neuronas durante el aprendizaje. El descubrimiento de este nuevo esquema cognitivo puede guiar futuras investigaciones sobre el aprendizaje en redes cerebrales y, al mismo tiempo, puede inspirar algoritmos de aprendizaje automáticos más rápidos, sólidos y eficientes en el campo de la Inteligencia Artificial (IA).
Diferentes modelos de aprendizaje
Por el momento, el cerebro humano es superior a los sistemas de IA por varias razones, principalmente ligadas a cómo aprendemos. Por ejemplo, somos capaces de adquirir nueva información en un único paso, mientras que los sistemas artificiales necesitan ser entrenados cientos de veces con la misma información para aprenderla e incorporarla.
Por si esto fuera poco, podemos aprender nueva información manteniendo el conocimiento previo e incluso usándolo en nuevas situaciones, mientras que los nuevos aprendizajes en las redes neuronales artificiales generalmente interfiere con el conocimiento existente y lo degradan rápidamente. Ambos aspectos condicionan el desarrollo de la IA y le ponen un límite.
Ahora, un nuevo estudio publicado en la revista Nature Neuroscience ha identificado el principio fundamental empleado por el cerebro humano durante el aprendizaje, que marca las diferencias con la IA pero que al mismo tiempo podrá ser utilizado para mejorar las redes neuronales artificiales en el futuro.
Según una nota de prensa, los científicos observaron algunos conjuntos de ecuaciones matemáticas existentes que describen cambios en el comportamiento de las neuronas y en las conexiones sinápticas entre ellas. Luego analizaron y simularon estos modelos de procesamiento de información y descubrieron que utilizan un principio de aprendizaje fundamentalmente diferente al empleado por las redes neuronales artificiales.
Recordar y aprender lo nuevo
Mientras en los sistemas de IA un algoritmo externo intenta modificar las conexiones sinápticas para reducir el error y obtener una solución efectiva, el cerebro humano primero coordina la actividad de las neuronas buscando una configuración equilibrada óptima, antes de ajustar las conexiones sinápticas. Los investigadores creen que esta estrategia de los cerebros biológicos reduce la interferencia al preservar el conocimiento existente, acelerando al mismo tiempo el aprendizaje.
Los especialistas demostraron en simulaciones por ordenador que los modelos que emplean esta estrategia, denominada configuración prospectiva, pueden aprender más rápido y con mayor eficacia que las redes neuronales artificiales, en tareas que normalmente enfrentan los animales y los seres humanos en la naturaleza.
Para avanzar hacia nuevos sistemas de IA que puedan combinar el aprovechamiento de información previa con la adquisición más rápida y eficiente de nuevos datos, es preciso “copiar” el modelo de configuración prospectiva desarrollado por el cerebro humano. Para ello, “es imprescindible desarrollar un nuevo tipo de ordenador o hardware dedicado inspirado en el cerebro humano, que sea capaz de implementar nuevas configuraciones rápidamente y con poco uso de energía”, concluyó en el comunicado el Dr. Yuhang Song, autor principal del nuevo estudio.
Referencia
Inferring neural activity before plasticity as a foundation for learning beyond backpropagation. Yuhang Song et al. Nature Neuroscience (2024). DOI:https://doi.org/10.1038/s41593-023-01514-1