Skip to content

El Premio Nobel de Física 2024

Por Francisco Tamarit (FAMAF, Universidad Nacional de Córdoba – IFEG (UNC y CONICET).

La Real Academia Sueca de Ciencias sorprendió al mundo de la física el último 8 de octubre al anunciar los dos nuevos galardonados con el Premio Nobel de Física 2024: John Hopfield y Geoffrey Hinton, ambos “por descubrimientos e inventos fundamentales que permiten el aprendizaje automático con redes neuronales artificiales». Algunas personas, entre ellas yo, tomaron la noticia con alegría, al tiempo que otras manifestaron pública y privadamente sus aprehensiones al hecho de reconocer a quienes trabajan en temas que no serían, en su entender, propios de nuestra disciplina. Más allá de las controversias, es innegable que ambos galardonados han hecho aportes significativos, y agregaría fundacionales, en la historia de esta revolución tecnológica que estamos viviendo alrededor del desarrollo de la inteligencia artificial. Y sin duda la física ha dado una impronta epistemológica y metodológica muy fuerte al área en las últimas cuatro décadas. Queda entonces para otros ámbitos discutir cuán justo y merecido es el premio otorgado. Como investigador que me inicié en el campo de redes neuronales artificiales apenas pocos años después de la publicación de los trabajos de Hopfield y Hinton que hoy se celebran, no tengo dudas en afirmar mi convicción profunda de que ambos casos el premio es más que merecido, aunque adelanto aquí que no pretendo polemizar al respecto, sino apenas dar una opinión personal y cargada de subjetividad. La inteligencia artificial (IA) no es una tecnología más de las muchas que permite construir el conocimiento físico. Se trata de una verdadera revolución tecnológica disruptiva y de impacto aún impredecible. Por primera vez la humanidad dispone de herramientas capaces de potenciar o incluso reemplazar nuestras capacidades mentales, algo que atenta profundamente contra nuestra sólida autoestima de Homo Sapiens. La mejora constante y acelerada de la capacidad de cómputo, el crecimiento exponencial en la cantidad de datos disponibles y la mejora sustancial (y exponencial) de la eficacia de los algoritmos utilizados, da lugar, día tras día, a cambios profundos que alteran profundamente nuestras formas de vivir.

La IA nació a mediados del siglo pasado y en solo pocas décadas ha alcanzado logros sorprendentes. En especial, en los últimos dieciocho años y de la mano del aprendizaje automático profundo vemos surgir nuevas y fascinantes aplicaciones que desafían nuestra capacidad de sorprendernos. La posibilidad de conversar con un chatbot, o generar videos a partir de texto, se ha popularizado en los últimos años y nos cuestiona todo el tiempo sobre cuál será el próximo desarrollo innovador que surgirá en los próximos meses. Pero pocos saben que, por detrás de estos logros, la física tuvo un papel más que relevante.

Durante las primeras décadas, los pioneros de la IA creyeron que la forma más fácil de lograr generar sistemas artificiales capaces de mostrar habilidades inteligentes sería entendiendo y modelando la forma en que los seres humanos manipulamos símbolos, como cuando por ejemplo procesamos el lenguaje natural. Pero este camino entró a fines de la década de los sesenta del siglo XX en un período de muy poca actividad, que los historiadores de la ciencia denominan el “primer invierno de la IA”. La historia de las redes neuronales comienza en el año 1943, cuando los norteamericanos Warren McCulloch y Walter Pitts [1] presentaron un modelo muy simple de neurona artificial, el cual sigue siendo la base conceptual de las neuronas artificiales que hoy se usan. A fines de la década de los cincuenta e inicios de los sesenta, el psicólogo Franz Rosenblatt armaría las primeras redes neuronales como colecciones de muchas neuronas artificiales y las usaría para la clasificación binaria de imágenes. A Rosenblatt debemos el primer algoritmo de aprendizaje supervisado, dando comienzo al estudio formal de las redes neuronales [2].

En el año 1982, cuando la IA aún no salía del letargo de su primer invierno académico, John Hopfield, un físico con experiencia en teoría de los sólidos que por entonces trabajaba en el CALTECH (Instituto Técnico de California) publicó el trabajo que daría inicio a la primera primavera de la IA, con el sugestivo título de “Neural networks and physical systems with emergent collective computational abilities” [3]. Inspirado en el modelado de los llamados “vidrios de espín” fue capaz de idear un modelo, conocido desde entonces como la Red de Hopfield, que permite almacenar y recuperar información por asociación, de la misma forma en que lo hacemos los humanos en particular y los animales en general. En las computadoras convencionales, cada trozo de información se guarda en un lugar físico, que es identificado con una dirección, como hacemos identificamos nuestras casas. En la red de Hopfield, las neuronas se describen por variables de Ising (pueden tomar valores +1 cuando disparan una señal electroquímica o -1 cuando están en reposo) y la información se almacena en el entramado de conexiones que une a las neuronas (conexiones que se denominan sinapsis) como sucede en nuestros cerebros. Esta es la base del llamado paradigma conexionista que sostiene que la base del almacenado, el aprendizaje y en general, el procesamiento de la información en sistemas nerviosos naturales, reside en la complejidad del entramado sináptico y no en la complejidad de las neuronas. La física de los sistemas vítreos representa aún hoy un serio desafío para la física, y en especial para la mecánica estadística, ya que es difícil modelar adecuadamente lo que sucede en estos sistemas, caracterizados por su relajación extremadamente lenta al equilibrio termodinámico. Inspirándose en modelos de sistemas magnéticos desordenados que se comportan dinámicamente como vidrios, Hopfield fue capaz de construir una red de neuronas muy simples, almacenar información en las sinapsis y recuperar dicha información asociando los estados iniciales de estas redes con las configuraciones almacenadas, mediante una simple dinámica determinista.

Pocos años después, en enero de 1986, Geoffrey Hinton y Terrence Sejnowski, publicarían el trabajo “Learning and Relearning in Boltzmann Machines”, introduciendo por primera vez una red neuronal generativa llamada Máquina de Boltzmann (un justo homenaje al renombrado físico austríaco) utilizando también aquí una fuerte analogía termodinámica con un sistema magnético aleatorio y competitivo descripto por variables de Ising y utilizando técnicas de optimización global inspiradas en el proceso del recocido de aceros y cerámicos. Pocos meses después, aún en 1986, Hinton publicó el trabajo titulado «Learning representations by back-propagating errors», escrito en colaboración con David E. Rumelhart y Ronald J. Williams [5]. En este trabajo se introdujo el llamado algoritmo de retropropagación del error que permite asignar valores adecuados a cada sinapsis de una red neuronal artificial en base a soluciones conocidas de la asignación entrada-salida que se busca modelar. Estas redes, llamadas feed-forward, se caracterizan por tener una capa de entrada de datos, una capa de salida, en la cual leemos la respuesta, y entre ellas un cierto número capas lineales de neuronas artificiales ocultas. Se trata en realidad de un abordaje computacional al llamado problema matemático de la aproximación universal de funciones a través del cual es posible aprender (ajustar), con funciones muy complejas y universales, una función objetivo que explica una relación desconocida entre los datos de entrada y de salida conocidos utilizando la popular técnica de descenso por el gradiente. Hinton tiene claramente una historia inusual para un Premio Nobel de Física. Nació en Inglaterra y obtuvo su título de grado en Psicología Experimental en el King’s College de Cambridge. Obtuvo luego un Doctorado en Inteligencia Artificial en la Universidad de Edimburgo (Escocia, Reino Unido) y desde partió para iniciar una brillante carrera científica en California (Estados Unidos), Londres (Reino Unido) y Toronto (Canadá), donde haría sus enormes aportes a las redes neuronales.

A poco de haberse popularizado los resultados pioneros de Hopfield y Hinton, comenzó a conformarse una creciente comunidad de físicas y físicos que desde otras áreas nutrieron el estudio de las redes neuronales, tanto para memoria asociativa como para aprendizaje automático. El algoritmo de Hinton fallaba a la hora de proponerse aprender (modelar) problemas (funciones objetivo) muy complejas, dado que no convergía cuando las redes feed-forward poseían más que unas pocas capas lineales de neuronas intermedias entre la entrada y la salida. El área entró a partir de mediados de la década de los noventa en un segundo invierno, caracterizado por el poco entusiasmo que los resultados generaban, a pesar de que fue un periodo también de importantes logros. Algunos pocos siguieron tenazmente buscando la solución al problema del aprendizaje automático con muchas capas y en 2006 otra vez Hinton traería la solución. Junto a Simon Osindero y Yee-Whye Teh, publicó el trabajo “A fast learning algorithm for deep belief nets” [6], con el cual se sentaron las bases de lo que hoy conocemos como el aprendizaje profundo que permite entrenar redes neuronales artificiales con muchas capas intermedias capaces de aprender problemas cada vez más mplejos, como los que hoy nos ofrece la IA generativa.

Aunque no seamos siempre plenamente conscientes y reconociendo el carácter multidisciplinario de la investigación en redes neuronales artificiales, es claro que la física, y en especial la física de los sistemas magnéticos desordenados con interacciones competitivas, ha sido fundamental en el desarrollo de la inteligencia artificial como hoy la conocemos [7]. Sin negar los grandes avances y las profundas innovaciones y modificaciones introducidas a los modelos originales de Hopfield y Hinton a lo largo de los años, resulta difícil desconocer lo que nuestra disciplina aportó, a través de ellos y de muchos y muchas colegas, a esta cuarta revolución tecnológica. Hay por cierto otros paradigmas de aprendizaje automático no neuronales muy exitosos, pero todo lo que nos maravilla, nos preocupa y nos entusiasma, nació en los trabajos pioneros de John Hopfield y Geoffrey Hinton. Quizá su aporte más significativo fue el cambio epistémico que permitió demostrar, con el aporte de miles de trabajos publicados por muchísimos investigadores  e investigadoras, que así como podemos entender la física macroscópica de materiales tan complejos como los vidrios a partir de la física que gobierna la dinámica de sus componentes microscópicos y sus interacciones, el conocimiento del funcionamiento de las neuronas que conforman los cerebros naturales y sus interacciones sinápticas nos permite explicar y modelar el comportamiento inteligente que nos caracteriza. Queda un camino largo por recorrer, lleno de preguntas que aún no tienen respuesta. Lo que sí sabemos, es que la vertiginosidad del crecimiento de las redes neuronales y los resultados obtenidos abren profundos dilemas éticos de los cuales las físicas y los físicos no podemos desentendernos. En particular, uno de los muchos dilemas que nos toca enfrentar en nuestro país es cómo podemos aprovechar todo el potencial académico que tenemos en Argentina y en la región (por cierto no solo en los departamentos de física) para que esta revolución disruptiva no ahonde la brecha tecnológica, social y económica que nos separa de los países más prósperos y por el contrario, podamos, en diálogo con toda la sociedad, sacar ventaja de todo lo invertido en la enseñanza y la investigación en redes neuronales artificiales. Se trata de una tarea difícil pero necesaria, en este presente signado por la proliferación de pensamientos irracionales y anticientíficos, en el que todo el entramado interinstitucional de educación superior, ciencia y tecnología es sometido a un injustificado maltrato presupuestario y a una inexplicable campaña difamatoria oficial que me hace temer por el futuro nuestra soberanía en términos de conocimiento, justo cuando el conocimiento se ha tornado sin duda en el bien más preciado de las sociedades inteligentes.

Bibliografía
[1] McCulloch, W. S. and Pitts, W. H. (1943). “A Logical Calculus of the Ideas Immanent in Nervous Activity”. Bulletin of Mathematical Biophysics, 5, pp. 115-133.

[2] Rosenblatt, F. (1958). “The perceptron: a probabilistic model for information storage and organization in the brain”. Psychology Review, 65 (6) pp. 386-408.

[3] Hopfield J. (1982). “Neural networks and physical systems with emergent collective computational abilities”. PNAS, 79 (8) 2554.

[4] Hinton, E and Sejnowski, T. J. (1986). “Learning and Relearning in Boltzmann Machines” in Parallel Distributed Processing: Explorations in the Microstructure of Cognition: Foundations, MIT Press, pp. 282-317.

[5] Rumelhart D., Hinton G.E and Williams R.J. (1986). “Learning representations by back-propagating errors”. Nature 323, pp. 533-536.

[6] Hinton, G.E., Osindero, S. and Yee-Whye T. (2006). “A fast learning algorithm for deep belief nets”. Neural Computation 18(7), pp. 1527-1554.

[7] Sejnowski, T. J. (2018). “The deep learning revolution”, The MIT Press, Cambridge, Massachusetts, London, England.