El concepto Meta-Simulación, idea que nació en el podcast de México el árbol de los mil frutos donde acompaño al Maestro José Antonio Robledo y Meza, lo mencioné como parte de mi reflexión.
Es probable ya exista el concepto. Es probable que lo haya leído antes. Sólo jugué con las palabras meta y simulación.
Por cierto, meta-cognición es un concepto que descubrí como estudiante en la Licenciatura de Psicología en la Benemérita Universidad Autónoma de Puebla (BUAP) hace algunos ayeres.
¿La simulación está tomando otro enfoque?
La respuesta es Sí, y un sí contundente. Y todo nace a partir de la reflexión del humano como productor de herramientas para conocer con ellas cada vez más nuestro entorno. Herramientas que, nos permiten ver lo invisible, y la simulación es una herramienta esencial en nuestros días.
Sin embargo, la creación de la Inteligencia Artificial (IA), que debería ir con el mismo fin, pareciese, rompe la tendencia.
¿Por qué me sigue dando vueltas esa idea: Meta-simulación?
Desde hace un par de semanas he cuestionado los límites físicos que tienen las IA y se acentuó con la crisis de las memorias artificiales o de hardware de almacenamiento.
Pero lo que vino a poner la “cerecita al pastel“, fue el contenido de la investigación expuesta por Ali Behrouz, Meisam Razaviyayn, Peilin Zhong y Vahab Mirrokni en un artículo de google en el siguiente link:
https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning
La publicación ¿Sobre qué me hizo reflexionar?
En primera instancia, al darse cuenta que los ritmos de aprendizaje son diversos, no seriados ni en paralelo, son asincrónicos; ¿Podría ser la solución para el exceso de memoria e infraestructura que necesita para funcionar las IA actulamente?
Pasar de un aprendizaje anidado que requiere gran cantidad de memoria y que, según el artículo, no es eficiente, porque cada cierto tiempo lo aprendido es olvidado y el proceso se reinicia usando información almacenada en conjunto con la nueva, éste modelo propuesto describe el uso de optimizadores profundos para cambiar por completo el proceso de aprendizaje de la IA.
¿Permite hacer más eficiente el uso de la memoria?
Lo que fue una esperanza (al momento de leer) para frenar el crecimiento de infraestructura que necesitan las IA para subsistir, observando esta aportación a largo plazo, me hizo caer en un modo crítico y preguntar:
Si a partir de una meta-simulación, que sería algo similar a la meta-cognición en los humanos, donde la memoria se administra desde varios enfoques, ¿Acercará a las IA a ser más humanos? ¿Cómo procesamos la memoria los humanos ahora es importante?
Por primera vez observo que una discusión hecha por décadas que ha cuestionado la importancia de la información por sí misma, ahora lo retoma el desarrollo de las IA.
Esto debería cambiar el paradigma de las IA por completo, sin embargo, esto cambia por completo los planes de la industria que veía un negocio redituable, por lo menos hasta el 2030. ¿La industria frenará ésta propuesta o la impulsará porque le beneficia al resolver el problema de escasez de materia prima?
¿Esto es aplicable o se quedará en teoría?
Pienso que es aplicable, desde mi ignorancia en la construcción de las IA. Sin embargo desde los procesos de aprendizaje humanos que competen a la Psicología Educativa, pienso es posible. Por ahora esto nos deja en la especulación.
Ahora, intentando salir de la especulación, y sabiendo que las memorias artificiales, es decir, el hardware de almacenamiento temporal y a largo plazo, tienden a ser de mayor capacidad y cada vez más veloces, me hace preguntar:
¿Se tendrá que replantear la producción de las unidades de almacenamiento temporal y a largo plazo? ¿Las velocidades de procesamiento de las memorias artificiales serán variables y no constantes como las últimas décadas? ¿Podremos reciclar hardware a partir éste nuevo modelo propuesto por Ali Behrouz, Meisam Razaviyayn, Peilin Zhong y Vahab Mirrokni en el artículo de google?
¡Muchas Gracias por el apoyo!