top of page

Comprender la mente para educar en la era digital: del lenguaje y la creatividad a las redes neuronales artificiales

Actualizado: 20 abr

Para repensar la formación docente Parte 4


ree

La obra de Margaret A. Boden se presenta como un mapa para pensar la inteligencia artificial no solo como una hazaña tecnológica, sino como una puerta de entrada al conocimiento de la mente humana. A lo largo de su recorrido, la autora propone que construir máquinas capaces de simular el pensamiento no solo permite extender nuestras capacidades, sino también reflexionar críticamente sobre quiénes somos, cómo aprendemos y cómo pensamos. Esta visión —en la que la IA actúa como una ciencia de la mente— se revela especialmente valiosa para el campo educativo, donde la comprensión de los procesos mentales es esencial para transformar la enseñanza y el aprendizaje. (Ver Parte 1)

 

En capítulos anteriores, Boden nos invita a repensar dimensiones fundamentales del pensamiento humano: el lenguaje, como estructura del sentido y medio para organizar la experiencia; la creatividad, como capacidad para generar lo nuevo más allá de lo establecido; y la emoción, como dimensión cognitiva que moldea nuestras decisiones, motivaciones y relaciones. Estas tres categorías no se abordan como temas aislados, sino como componentes interdependientes de la inteligencia, y por lo tanto, de todo acto educativo. (Ver Parte 2 y Ver Parte 3)

 

Ahora, el enfoque se desplaza hacia una de las tecnologías más influyentes de las últimas décadas: las redes neuronales artificiales (RNA). A primera vista, el paso del lenguaje y la creatividad al campo técnico de las RNA podría parecer un giro brusco. Sin embargo, Boden construye un puente conceptual sólido: las redes neuronales no son solo algoritmos potentes, sino modelos para pensar cómo podría operar la mente desde lo distribuido, lo no consciente y lo emergente. En ese sentido, se insertan en la misma pregunta que articula su obra: ¿cómo pensamos? ¿Y qué significa simular ese pensamiento?

 

Redes neuronales artificiales: otra forma de aprender, otra forma de pensar

 

En su análisis de las redes neuronales artificiales (RNA), Margaret A. Boden nos lleva a un terreno donde la inteligencia ya no se representa en símbolos, fórmulas o reglas explícitas, sino en conexiones, activaciones y patrones que se autoajustan. Frente a la IA simbólica —aquella que imita el razonamiento humano a través de lógica formal—, las RNA representan una forma alternativa de comprender y simular la mente. Más que decirnos cómo pensamos, nos muestran cómo podríamos aprender sin saber que aprendemos. En este sentido, las RNA abren una línea de reflexión no solo tecnológica, sino profundamente epistemológica y pedagógica.

 

“Las redes neuronales artificiales no programan el conocimiento; lo descubren. No simulan la lógica de la mente, sino la plasticidad del aprendizaje” (Boden, 2016, cap. 4 ).

 

El punto de partida de las RNA es la inspiración neurobiológica. Estas redes se construyen a partir de la idea de que el cerebro humano aprende y se adapta reforzando o debilitando conexiones entre neuronas. El modelo artificial replica este principio con unidades simplificadas llamadas “neuronas” conectadas entre sí mediante “pesos” que cambian según la experiencia. Boden señala que esta idea tiene raíces en el trabajo de McCulloch y Pitts (1943), pero fue Donald Hebb quien formuló la idea fundamental del aprendizaje conexionista:

 

“Cuando dos neuronas se activan juntas repetidamente, su conexión se refuerza” (Boden, 2016, cap. 4).

 

Este principio —conocido como “regla hebbiana”— es la base del aprendizaje en redes artificiales: aprender es ajustar conexiones para responder mejor la próxima vez. A diferencia de los enfoques simbólicos, que requieren que alguien defina las reglas de inferencia, aquí es el sistema mismo el que las “descubre” a través del contacto con datos.

 

Sin embargo, Boden es cuidadosa al señalar que esta analogía tiene límites. Las RNA están muy lejos de la complejidad biológica del cerebro humano. Son, en sus palabras:

 

“Demasiado claras, demasiado simples, demasiado escasas y demasiado pobres” (Boden, 2016, cap. 4).

 

Lo que quiere decir es que las redes artificiales simplifican radicalmente los procesos neuronales reales. Aun así, capturan una lógica poderosa: el conocimiento puede surgir no de reglas explícitas, sino del ajuste constante entre unidades simples que cooperan.

 

El aprendizaje en las RNA se basa en el principio de ajuste progresivo. Una red recibe una entrada (por ejemplo, una imagen), produce una salida (una etiqueta, como “perro”), y si la salida es incorrecta, ajusta los pesos internos para equivocarse menos la próxima vez. Este proceso es conocido como aprendizaje supervisado por retropropagación del error.

 

“La red ajusta sus pesos en función del error, redistribuyendo responsabilidades entre las unidades internas” (Boden, 2016, cap. 4).

 

Boden también describe dos tipos adicionales de aprendizaje:

 

  • Aprendizaje no supervisado: La red no recibe una “respuesta correcta”, sino que se organiza según la estructura de los datos. Aprende a detectar patrones por sí misma. Se basa, entre otros, en la regla de Hebb.

  •  Aprendizaje por refuerzo: La red aprende a actuar mediante recompensas o castigos, sin saber cuál es la respuesta correcta, sino solo qué tan buena fue la que dio. Este aprendizaje se inspira en principios conductistas y en mecanismos cerebrales como la dopamina.

 

Cada uno de estos tipos de aprendizaje representa una forma distinta de adquirir conocimiento, lo cual tiene importantes resonancias pedagógicas. El aprendizaje humano no se da solo por instrucción directa (supervisión), sino también por exploración (no supervisado) y por experiencia práctica (refuerzo). En este punto, Boden nos invita a pensar la diversidad de formas de aprender, tanto en máquinas como en personas.

 

Uno de los aspectos más complejos —y fascinantes— de las RNA es su forma de representar el conocimiento. A diferencia de los sistemas simbólicos, donde cada concepto está claramente identificado (por ejemplo, “X = perro”), las redes neuronales no tienen etiquetas internas visibles. Lo que saben está disperso en los pesos y activaciones. Boden lo explica así:

 

“La representación de un concepto en una red neuronal no está localizada, sino distribuida entre muchas unidades” (Boden, 2016, cap. 4).

 

Esto tiene una implicación crítica: la red puede saber algo sin saber cómo lo sabe. Puede reconocer un rostro, clasificar una palabra o generar una imagen sin que haya una regla explícita detrás. Este saber implícito, intuitivo y a veces inexplicable es cercano a ciertas formas de aprendizaje humano, como cuando reconocemos el tono emocional de una voz sin poder explicar por qué.

 

Desde lo pedagógico, esto desafía modelos educativos centrados solo en la verbalización o en la lógica explícita. No todo lo que aprendemos puede explicarse verbalmente. Como los niños que aprenden a hablar antes de poder explicar la gramática, las RNA aprenden primero a actuar, y solo después podrían, con ayuda, explicar lo que hacen. Este modelo puede abrir posibilidades para pensar estrategias de enseñanza que reconozcan los saberes tácitos y las formas de conocimiento no declarativo.

 

Sin embargo, esta forma de conocimiento tiene un problema: es difícil de interpretar. En las RNA, el proceso de decisión es opaco: sabemos qué entra y qué sale, pero no siempre entendemos cómo se llegó a la respuesta. Boden advierte sobre esta “caja negra”:

 

“Podemos ver lo que la red hace, pero no siempre podemos explicar por qué lo hace” (Boden, 2016, cap. 4).

 

Esta falta de interpretabilidad plantea desafíos éticos y pedagógicos. ¿Qué significa confiar en sistemas que no pueden justificar sus decisiones? ¿Cómo enseñar pensamiento crítico si las herramientas que usamos no pueden rendir cuentas de su lógica? En educación, donde la comprensión y la argumentación son centrales, este tipo de “inteligencia sin explicación” debe manejarse con cuidado.

 

Uno de los avances más notables en redes neuronales ha sido su combinación con el aprendizaje por refuerzo, lo que ha permitido que estas redes aprendan a jugar videojuegos, controlar robots o realizar tareas complejas como conducir. Boden menciona el caso de DeepMind, cuyo sistema de aprendizaje logró dominar juegos de Atari observando únicamente los píxeles de la pantalla y la puntuación del juego:

 

“Sin saber las reglas del juego, el sistema aprendió por sí mismo a ganar, guiado solo por la recompensa” (Boden, 2016, cap. 4).

 

Este enfoque tiene analogías con el aprendizaje humano por descubrimiento o aprendizaje basado en problemas. Sin embargo, en los humanos el proceso está mediado por emociones, comprensión, y sentido, algo que las RNA aún no pueden replicar. Lo que hacen es maximizar recompensas, pero sin entender por qué esas recompensas son valiosas.

 

Desde una perspectiva educativa, las redes neuronales artificiales nos obligan a repensar qué significa aprender. Si una máquina puede aprender a reconocer rostros, traducir idiomas o jugar ajedrez sin ser consciente de lo que hace, ¿cómo aseguramos que el aprendizaje humano no pierda su dimensión crítica y ética?


Las RNA son poderosas herramientas, pero no son sujetos. No comprenden, no sienten, no interpretan. Por eso, su uso en contextos educativos debe ser mediado por una pedagogía que valore no solo el resultado, sino el proceso, el sentido, la comprensión y la ética del aprender.

 

Boden no idealiza las RNA, pero reconoce su valor: nos muestran que el conocimiento puede surgir de abajo hacia arriba, de la interacción entre partes simples que se ajustan, sin un plan centralizado. Y eso nos enseña algo profundo sobre cómo podríamos pensar —y enseñar— de otro modo.

 

El texto sobre redes neuronales artificiales nos presenta un tipo de inteligencia que no razona como nosotros, pero que nos obliga a pensar sobre nosotros mismos. Las RNA aprenden sin reglas explícitas, representan sin símbolos claros, y actúan sin comprensión. Y, sin embargo, funcionan. Reconocen, predicen, generalizan. Nos muestran que la inteligencia puede adoptar formas inesperadas, distribuidas, silenciosas, opacas.

 

Para la educación, este modelo representa un llamado doble: por un lado, aprender de las RNA —su plasticidad, su capacidad de adaptación, su forma de aprender por experiencia—; por otro, no imitarlas acríticamente. Enseñar no es solo ajustar pesos: es formar criterio, sentido, sensibilidad. Las redes neuronales artificiales nos ofrecen un espejo desde el cual mirar la mente, pero también una advertencia: la inteligencia sin comprensión no es suficiente.

 

“El verdadero desafío no es que las máquinas aprendan, sino que los humanos no dejemos de comprender” (Boden, 2016, cap. 4).

 

Referencia


Boden, M. A. (2016). Inteligencia Artificial. Madrid: Turner Noema.


McCulloch, W. S., & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 5(4), 115–133. https://doi.org/10.1007/BF02478259


Nota: Las citas textuales fueron tomadas de la versión digital del libro disponible en Everand (anteriormente Scribd), la cual no conserva la paginación de la edición impresa. Por esta razón, se ha citado por capítulos.

Comentarios

Obtuvo 0 de 5 estrellas.
Aún no hay calificaciones

Agrega una calificación
bottom of page