Pensar, escribir y decidir: capacidades humanas ante la inteligencia artificial
- Marilyn González Reyes
- 3 jul
- 4 Min. de lectura

La irrupción de la inteligencia artificial en el ámbito educativo supone una de las transformaciones más significativas de nuestra época. Tal como advierte Rebollo Delddago (2023) en Inteligencia artificial y derechos humanos, estos sistemas tecnológicos no son neutrales, sino que reflejan decisiones de diseño que pueden afectar principios fundamentales de la formación humana. Entre esos principios, destacan de forma particular la autonomía, el pensamiento crítico y la capacidad de escritura, pilares insustituibles de la educación democrática y humanista.
Desde la perspectiva de la autonomía, la IA plantea el riesgo de que el sujeto delegue de forma acrítica tareas intelectuales esenciales, debilitando su capacidad de decidir y de asumir responsabilidades sobre su propio aprendizaje. La propuesta de Hans Jonas (1979) resulta muy pertinente en este sentido: el principio de responsabilidad ética obliga a prever los posibles daños de la técnica antes de su implementación, y uno de esos daños es precisamente la pérdida de la autonomía personal. Cuando los sistemas inteligentes automatizan procesos de análisis, recomendación o resolución de problemas, existe el peligro de que el estudiante se convierta en un simple receptor pasivo de instrucciones, perdiendo la oportunidad de tomar decisiones genuinas y de ejercitar su libertad de elección. Por ello, resulta indispensable construir un marco educativo en el que la IA sea concebida como herramienta de apoyo, pero sin desplazar la responsabilidad final del aprendizaje que debe recaer en la persona. Conviene reflexionar también sobre la dimensión emocional del aprendizaje, pues la autonomía no solo implica tomar decisiones racionales, sino también construir confianza en las propias capacidades, algo que la inteligencia artificial no puede reemplazar.
En estrecha relación con la autonomía se encuentra el pensamiento crítico. La capacidad de argumentar, evaluar, contrastar información y formular juicios razonados constituye la base de la ciudadanía reflexiva. Sin embargo, la inteligencia artificial —al ofrecer respuestas rápidas, modelos de textos predefinidos y soluciones aparentemente exactas— puede erosionar el ejercicio crítico si no se integra con criterio pedagógico. Autores como Adorno y Horkheimer (1944) ya advirtieron que la racionalidad técnica, cuando no se somete a examen, tiende a homogeneizar el pensamiento y a producir conformismo intelectual. En la educación, ello podría traducirse en estudiantes acostumbrados a aceptar sin cuestionar lo que un algoritmo sugiere, renunciando a interrogar, debatir o profundizar en las razones que sustentan una conclusión. Para evitar esta deriva, se requiere no solo transparentar los criterios de la IA, sino también formar al estudiantado en habilidades metacognitivas que les permitan analizar la calidad de las respuestas automáticas y contrastarlas con otros puntos de vista. En este contexto, el rol docente cobra aún mayor relevancia como garante de la formación integral, capaz de cultivar el juicio crítico de los estudiantes y sostener un horizonte de valores orientado a la libertad intelectual.
La escritura, por su parte, representa un espacio de desarrollo personal y creativo que no puede ser reducido a un acto meramente instrumental. Nussbaum (2011), al proponer su enfoque de las capacidades, destaca que la expresión lingüística y la narración de la experiencia son componentes esenciales para construir una vida plena y autónoma. Delegar la redacción de textos en sistemas automáticos conlleva el riesgo de empobrecer el estilo, debilitar la argumentación propia y restringir el desarrollo de la imaginación y la sensibilidad estética. La creatividad lingüística y la exploración personal corren el riesgo de atrofiarse si la IA suprime el esfuerzo de encontrar palabras propias y articular discursos originales. La escritura no solo comunica, sino que estructura el pensamiento y permite organizar el mundo interior; en este sentido, su práctica no debería ser reemplazada por máquinas, sino enriquecida con herramientas que potencien el aprendizaje, pero preserven la voz singular del estudiante. Por ello, las políticas educativas deben garantizar oportunidades reales para que los alumnos escriban con autonomía, asuman la complejidad de argumentar y reciban retroalimentación significativa, más allá de puntuaciones automáticas o correcciones estandarizadas.
Desde esta óptica, resulta imprescindible que la gobernanza de la inteligencia artificial en educación incorpore salvaguardas claras para estos aspectos. Se pueden proponer, por ejemplo, regulaciones que limiten el grado de automatización de la escritura evaluativa, protocolos que garanticen espacios de argumentación humana en actividades de aprendizaje, y metodologías que prioricen la participación reflexiva del estudiante en la selección y uso de recursos digitales. Además, la formación docente debe incluir competencias para evaluar críticamente los sistemas de IA y acompañar a sus estudiantes en el desarrollo de una conciencia tecnológica crítica. Estas acciones contribuirían a evitar la dependencia acrítica de las máquinas y a sostener la centralidad de la persona como sujeto pensante, creativo y autónomo.
En definitiva, la inteligencia artificial puede ser un aliado poderoso para mejorar la educación, siempre que su integración respete la dignidad del proceso formativo y no sustituya las capacidades humanas que sostienen la libertad, la creatividad y el pensamiento crítico. Si se prioriza la ética como guía, siguiendo el principio de responsabilidad de Jonas (1979) y el enfoque de capacidades de Nussbaum (2011), la IA podrá aportar recursos valiosos sin menoscabar la autonomía personal ni trivializar el acto de escribir y reflexionar. Ello demanda decisiones políticas, pedagógicas y sociales valientes, capaces de mantener viva la dimensión humanista de la educación incluso en tiempos de automatización.
Referencias
Adorno, T. W., & Horkheimer, M. (1944). Dialéctica de la ilustración. Editorial Trotta (edición consultada).
Jonas, H. (1979). El principio de responsabilidad: ensayo de una ética para la civilización tecnológica. Herder.
Nussbaum, M. C. (2011). Creating capabilities: The human development approach. Harvard University Press.
Rebollo Delddago, L. (2023). Incidencia de la inteligencia artificial en los derechos fundamentales. En Inteligencia artificial y Derechos fundamentales (1.a ed., pp. 51-). Dykinson. https://doi.org/10.2307/jj.5076311.7
Comments