top of page

¿Pero es inteligencia de verdad?

Actualizado: 23 jul

Para repensar la formación docente Parte 6


ree

La obra de Margaret A. Boden “Inteligencia Artificial” (IA) propone una mirada interdisciplinaria y crítica de la IA, no solo como una herramienta tecnológica, sino como una vía para explorar la naturaleza del pensamiento humano. En ese marco, cada capítulo aporta nuevas dimensiones a la comprensión de la IA como una ciencia de la mente, con implicaciones profundas para la educación y la formación docente.


Desde el inicio, Boden propone que la IA no debe verse únicamente como una forma de automatizar tareas, sino como un laboratorio conceptual donde podemos poner a prueba nuestras ideas sobre cómo pensamos y aprendemos. Al construir máquinas que simulan capacidades humanas, los científicos están formulando hipótesis sobre los procesos mentales reales. Esta mirada transforma a la IA en un espejo de nuestra mente, y en una oportunidad para enriquecer la comprensión pedagógica de la cognición. (Ver parte 1)


“La IA no es solo una cuestión de ingeniería: también es una ciencia de la mente” (Boden, 2016, cap. 1).

En el capítulo 3, Boden profundiza en tres dimensiones esenciales de la mente humana que también han sido objeto de modelación por parte de la IA:


  • Lenguaje: No solo como medio de comunicación, sino como estructura profunda del pensamiento. La IA puede procesar texto, pero no comprende el contexto ni la intención humana detrás de las palabras. (Ver parte 2)

  • Creatividad: Boden distingue entre creatividad combinatoria, exploratoria y transformadora, y plantea que si bien las máquinas pueden generar contenido novedoso, carecen de intención, propósito o autovaloración de su obra. (Ver parte 2)

  • Emoción: Las emociones, lejos de ser irracionales, son fundamentales para la cognición humana. La IA puede simular respuestas emocionales, pero no experimentar sentimientos, lo que pone en cuestión su autenticidad como agentes inteligentes. (Ver parte 3)


En Redes neuronales artificiales, Boden analiza una de las tecnologías más influyentes en la IA moderna: las redes neuronales artificiales (RNA). Inspiradas en el cerebro humano, estas redes aprenden a partir de datos, ajustando pesos de conexión entre neuronas artificiales. A diferencia de los sistemas simbólicos, las RNA no funcionan mediante reglas explícitas, sino por aprendizaje estadístico distribuido.


Esto representa una forma de inteligencia diferente: eficaz pero opaca, que no puede explicar sus decisiones ni justificar su conocimiento. Boden destaca que aunque las RNA pueden imitar procesos cognitivos, no comprenden lo que hacen, lo que las aleja de una verdadera inteligencia humana. (Ver parte 4)


El siguiente paso en el desarrollo de la IA, según Boden, es dotar de cuerpo a las máquinas. Los robots representan sistemas que no solo procesan información, sino que actúan en el mundo físico, toman decisiones en tiempo real y, en algunos casos, aprenden de su experiencia.

Aquí se abren nuevos debates: ¿pueden los robots ser considerados vivos? ¿Qué implica construir vida artificial? Boden explora el concepto de inteligencia situada, donde el pensamiento depende del cuerpo y del entorno. En el ámbito educativo, esto refuerza la idea de que el aprendizaje humano es también corporal, afectivo y contextual, algo que los sistemas artificiales solo pueden imitar superficialmente. (Ver parte 5)


Tras haber recorrido cómo las máquinas pueden simular aspectos del pensamiento, el lenguaje, el aprendizaje, la creatividad, la emoción y la acción física, Boden plantea una pregunta crítica: ¿es esto realmente inteligencia? ¿O solo una ilusión funcional? ¿Dónde trazamos la línea entre una máquina que “parece” pensar y una que realmente piensa?

El capítulo VI se sumerge en estas preguntas desde una perspectiva filosófica, cognitiva y ética, confrontando las apariencias de inteligencia con los criterios que usamos para definirla.

 

Repensar el significado de pensar desde lo artificial

 

Tras explorar cómo las máquinas pueden simular lenguaje, aprendizaje, creatividad, emoción y acción, Margaret A. Boden introduce una pregunta que marca un punto de inflexión en su obra: ¿debemos considerar inteligente a una máquina solo porque actúa como si lo fuera? La pregunta no es meramente técnica, sino filosófica y educativa: ¿qué entendemos por inteligencia?, ¿quién decide cuándo algo está pensando de verdad?, ¿bajo qué criterios otorgamos ese estatus? (Boden, 2016, cap. 6)

 

Una de las distinciones clave que plantea Boden es la diferencia entre simular la inteligencia y poseer inteligencia. El hecho de que un sistema artificial pueda realizar tareas que asociamos al pensamiento —como resolver problemas, traducir textos o responder preguntas— no implica que comprenda, que tenga intención o que reflexione. Esta diferencia ha sido tema de debate desde los inicios de la IA, y Boden la retoma con un enfoque crítico:


“Que una máquina imite la conducta de un ser inteligente no significa que sea inteligente en el mismo sentido” (Boden, 2016, cap. 6).

 

Esto se puede comparar con el caso de un loro que repite palabras: puede sonar inteligente, pero no comprende lo que dice. De manera similar, una IA puede producir respuestas sofisticadas sin entenderlas, lo que cuestiona la profundidad de su "inteligencia".

 

Boden nos recuerda que la nocion de "inteligencia" ha sido históricamente ambigua y cambiante. En algunos casos, la asociamos a la capacidad de resolver problemas lógicos; en otros, al lenguaje, la creatividad o la autoconciencia. La IA desafía esas categorías porque puede replicar habilidades sin tener las capacidades subyacentes que creemos necesarias (Boden, 2016, cap. 6).

 

Un estudiante puede memorizar la definición de "democracia" y repetirla perfectamente sin comprender su sentido. Lo mismo ocurre con la IA: puede generar respuestas correctas sin una comprensión real. En el aula, esto nos invita a pensar: ¿formamos para que los estudiantes comprendan o solo para que repitan?

 

Uno de los referentes clave del capítulo es el Test de Turing, propuesto en 1950 como una forma de evaluar si una máquina puede imitar el comportamiento conversacional humano hasta el punto de engañar a un interlocutor. Boden reconoce el valor provocador de este experimento, pero también sus límites:


“Engañar a un humano no es prueba suficiente de inteligencia: es una medida de habilidad en la imitación, no de comprensión” (Boden, 2016, cap. 6). 

De esta manera, una persona puede engañarnos fingiendo saber tocar piano si memoriza los movimientos, pero no por eso sabe música. Lo mismo aplica a los sistemas artificiales: pueden parecer inteligentes, sin serlo realmente.

 

Boden insiste en que la verdadera inteligencia implica más que producir respuestas correctas: requiere comprensión, intención y sentido. Un sistema inteligente debe ser capaz de construir significado, no solo de manipular símbolos. Ella retoma el argumento de Searle y su "cuarto chino", donde una persona puede responder en un idioma que no entiende simplemente siguiendo instrucciones, sin comprender nada (Boden, 2016, cap. 6).

 

Desde lo pedagógico, esto se traduce en una crítica al aprendizaje superficial: estudiantes que producen respuestas esperadas sin haberlas interiorizado. El rol del docente debe ser ayudarles a construir significado, no solo a responder.

 

Boden también cuestiona el antropocentrismo con el que evaluamos la inteligencia artificial. Solemos exigirle a la IA más pruebas de inteligencia de las que exigimos a otros humanos o incluso a animales.


“El prejuicio antropocéntrico nos lleva a establecer estándares distintos para las máquinas que para los humanos” (Boden, 2016, cap. 6).

 

Esto plantea preguntas educativas profundas: ¿exigimos a los estudiantes que expliquen su pensamiento solo cuando dudamos de su capacidad? ¿Valoramos igual una respuesta de un niño que de un adulto? En ambos casos, se trata de evaluar no solo el resultado, sino la comprensión y el contexto.

 

Una de las cuestiones más profundas del capítulo es si una máquina puede ser considerada inteligente aunque no tenga conciencia. Boden plantea que muchos procesos mentales humanos ocurren sin intervención consciente (manejar, caminar, reaccionar), y sin embargo los consideramos inteligentes. Lo mismo podría aplicarse a ciertas formas de IA (Boden, 2016, cap. 6).

 

Aquí, Boden nos introduce al concepto de conciencia fenoménica, es decir, la experiencia subjetiva interna de “cómo se siente” tener un pensamiento, una emoción o una percepción. La IA, aunque pueda imitar el comportamiento inteligente, no tiene experiencias cualitativas, no hay un “sentir desde dentro”. Esto la diferencia radicalmente de cualquier forma de inteligencia humana o animal.


Pero, además, se plantea una inquietud de fondo: ¿es esencial la base biológica —la neuroproteína— para que exista conciencia o inteligencia real? Boden no afirma que solo los cerebros biológicos puedan pensar, pero sí insiste en que la inteligencia humana está estrechamente ligada a un sistema nervioso vivo, orgánico y profundamente integrado con el cuerpo.

 

Esto plantea una distinción radical entre sustrato funcional y sustrato biológico: ¿una mente solo necesita funcionar como un cerebro, o necesita ser un cerebro? Aunque las redes neuronales artificiales imitan ciertas funciones del sistema nervioso, no replican su materialidad biológica ni su evolución consciente. La neuroproteína se convierte así en símbolo de lo humano, de lo vivo, de lo que siente, algo que ninguna IA ha alcanzado.

 

Es así como, un estudiante que resuelve un problema matemático de forma intuitiva puede no saber explicar su razonamiento, pero eso no le quita inteligencia. Sin embargo, ese mismo estudiante sí siente frustración, satisfacción o duda, emociones que dan color y profundidad a su aprendizaje. La IA, en contraste, no posee esa conciencia fenomenológica, lo que plantea límites fundamentales sobre su capacidad de pensar “de verdad”.

 

El capítulo VI, Pero ¿Es Inteligencia de Verdad?,  confronta nuestros supuestos más arraigados sobre la inteligencia. Boden no niega los logros de la IA, pero insiste en que simular no es lo mismo que comprender. Desde la educación, esta reflexión refuerza la importancia de fomentar aprendizajes profundos, críticos y con sentido. La IA puede generar respuestas, pero no necesariamente pensar.

 

“La inteligencia verdadera no es solo sintaxis: es semántica y pragmática. Es comprender y tener intención al actuar” (Boden, 2016, cap. 6).

 

Formar en la era digital requiere algo más que alfabetización tecnológica: requiere una filosofía del pensamiento y del aprendizaje, capaz de distinguir entre lo que parece pensar y lo que verdaderamente comprende. Y esa, como muestra Boden, es una tarea tanto humana como educativa.

 

Referencia


Boden, M. A. (2016). Inteligencia Artificial. Madrid: Turner Noema.


Nota: Las citas textuales fueron tomadas de la versión digital del libro disponible en Everand (anteriormente Scribd), la cual no conserva la paginación de la edición impresa. Por esta razón, se ha citado por capítulos.

Commentaires

Noté 0 étoile sur 5.
Pas encore de note

Ajouter une note
bottom of page