Para un grupo de científicos de la Universidad Stuttgart en
Alemania, el aprendizaje de nuestro cerebro podría estar controlado por las
mismas leyes que rigen la formación de las estrellas y la evolución del
Universo. El estudio publicado en Physical Review Letters demuestra
que, a nivel neuronal, el proceso de aprendizaje podría estar limitado por las
leyes de la termodinámica.
"La mayor importancia de nuestro trabajo es que
llevamos la segunda ley de la termodinámica al análisis de redes
neuronales", dijo el investigador principal Sebastian Goldt. La segunda
ley de la termodinámica es una de las leyes de física más famosas que tenemos,
y afirma que la entropía total de un sistema aislado siempre aumenta con el
tiempo.
La entropía es una cantidad termodinámica que mide el
desorden en un sistema. Esto significa que, sin energía adicional añadida, las
transformaciones no pueden ser revertidas y que habrá más desorden de manera
progresiva, porque es más eficiente de esa manera. La entropía es actualmente
la principal hipótesis de por qué la flecha del tiempo solo marcha hacia
delante.
Pero, ¿qué tiene que ver esto con la manera en que nuestros
cerebros aprenden? Al igual que el enlace de los átomos y la disposición de las
partículas de gas en las estrellas, nuestros cerebros están diseñados para
encontrar la forma más eficiente de organizarse. "La segunda ley es una
declaración muy poderosa sobre cuáles son las transformaciones posibles, y el
aprendizaje es una transformación de una red neuronal a expensas de la
energía", explicó Goldt.
"Prácticamente todos los organismos recopilan
información sobre su ambiente ruidoso y construyen modelos a partir de esos
datos, principalmente utilizando redes neuronales", se lee en el estudio. Lo
que los investigadores estaban buscando es cómo las neuronas filtran el ruido,
y solo responden a importantes entradas sensoriales. Basaron sus modelos en
algo llamado teoría Hebbiana, que explica cómo las neuronas se adaptan durante
el proceso de aprendizaje. Esta teoría es conocida por el dicho "células
que disparan juntas, se conectan", que significa que si las células
disparan al mismo momento o con el mismo patrón, los pensamientos resultantes se
refuerzan y se mantienen en nuestros cerebros.
Utilizando este modelo, el equipo demostró que la eficiencia
de aprendizaje estaba limitada por la producción de entropía total de una red
neuronal. Se dieron cuenta de que cuanto más lenta una neurona aprende, menos
calor y entropía produce, lo que aumenta su eficiencia. Estos resultados
particulares sólo pueden aplicarse a algoritmos de aprendizaje simples que no
usen retroalimentación.
Sin embargo, este estudio logra poner una nueva perspectiva
en el estudio del aprendizaje, y proporciona pruebas de que nuestras neuronas
siguen las mismas leyes termodinámicas que el resto del Universo. Tampoco son
los primeros en pensar en nuestros cerebros en términos de termodinámica. El
año pasado, un equipo de Francia y Canadá propuso que la conciencia podría ser
simplemente un efecto secundario de la entropía, y nuestros cerebros
organizándose de la manera más eficiente.
"Encontramos un resultado sorprendentemente simple: los
estados de vigilia normales se caracterizan por el mayor número de
configuraciones posibles de interacciones entre redes cerebrales, que
representan valores de entropía más altos", escribieron en ese momento.
Aún estamos muy lejos de entender cómo funcionan nuestros
cerebros, y estos son solo dos estudios de muchos que han intentado identificar
por qué nuestras neuronas se conectan y funcionan de la manera que lo hacemos.
FUENTE: Science
Alert