top of page

Ética e inteligencia artificial: desafíos y compromisos desde la educación y la familia

ree

En una época en que los algoritmos deciden qué vemos, compramos, leemos e incluso cómo aprendemos, hablar de inteligencia artificial no es hablar del futuro, sino del presente. La IA ha dejado de ser un asunto técnico para convertirse en una cuestión moral, política y pedagógica. No se trata solamente de saber cómo funciona un sistema, sino de preguntarnos para qué existe, a quién sirve y qué tipo de sociedad configura.


La ética, en este contexto, no es un añadido posterior. Es, como lo plantea Sara Degli-Esposti (2023), una “condición necesaria del diseño tecnológico” (p. 36). Su advertencia es clara: no hay neutralidad en los sistemas de IA. Su arquitectura se construye sobre valores, prejuicios, datos históricos y decisiones humanas que se replican en los resultados. Cuando un algoritmo de reconocimiento facial falla más con personas negras, o cuando un sistema de puntuación académica favorece a estudiantes con determinado perfil socioeconómico, lo que está en juego no es una falla técnica, sino una falla ética: la invisibilización de vidas y contextos que no fueron considerados al programar la herramienta.


No obstante, no basta con declarar principios abstractos como la justicia, la autonomía o la transparencia. Como bien señala Degli-Esposti, la ética de la IA corre el riesgo de quedarse en “una retórica de principios sin mecanismos efectivos de regulación ni compromiso estructural” (p. 50). Este es uno de los puntos más críticos: especialmente cuando se trata de tecnologías que afectan directamente derechos humanos, decisiones públicas y procesos educativos.


Desde otra perspectiva, Sergio Marín García (2019) aborda el tema desde una matriz más filosófica. Coincide en la importancia de la ética, pero introduce un matiz clave: el de la responsabilidad moral no transferible. Aunque la IA pueda emular procesos cognitivos complejos, “no puede asumir ni comprender el peso de una decisión moral” (Marín, 2019, p. 4). En ese sentido, la delegación de tareas éticamente significativas a sistemas automatizados es, en sí misma, una irresponsabilidad ética. El problema no es solo técnico, sino profundamente humano: ¿qué pasa cuando dejamos de juzgar, deliberar, asumir consecuencias?

Este cuestionamiento se vuelve aún más urgente en el ámbito educativo. La irrupción de herramientas como ChatGPT o sistemas automáticos de evaluación ha descolocado a docentes, autoridades y familias. El fenómeno más evidente ha sido el uso de IA para producir textos, tareas y exámenes sin participación real del estudiante. Pero limitar la reflexión al plagio sería quedarse en la superficie. Como bien advierten Gómez Cárdenas, Fuentes Penna y Castro Rascón (2024), lo que está en juego es mucho más que la autoría de un trabajo: es la pérdida de agencia intelectual y formativa. “Si una IA puede generar discursos, resolver problemas y redactar argumentos sin que medie comprensión, lo que se debilita no es solo la evaluación, sino el propio sentido del aprendizaje” (Gómez et al., 2024, p. 5).


Este deterioro se agudiza si los adultos responsables de educar —docentes o padres— no comprenden las lógicas que mueven estas tecnologías. La alfabetización digital ya no puede limitarse al uso instrumental de herramientas. Lo que se requiere es una formación ética, crítica y pedagógica que permita distinguir entre uso inteligente y uso acrítico. La escuela y la familia no deben competir con la IA, sino enseñarle a los niños y jóvenes a no dejarse llevar por sus soluciones inmediatas y descontextualizadas.


Pero para eso, primero debemos dejar de ver la IA como “un recurso neutro que mejora la eficiencia”, y empezar a entenderla como una tecnología cultural que distribuye poder, saber y legitimidad. En muchos casos, la IA actúa como mediadora invisible de decisiones que, antes, eran deliberadas por humanos: qué leer, qué estudiar, cómo evaluar, a quién creer. En palabras de Degli-Esposti, se trata de “procesos algorítmicos que se integran en sistemas de poder y vigilancia” (2023, p. 48), no de simples ayudas técnicas. Y si esto es así, el rol pedagógico es más importante que nunca.


Los docentes deben recuperar su función como guías del juicio crítico, no como fiscalizadores de trampas. Evaluar ya no puede ser solo calificar el resultado de una tarea. Requiere procesos, metacognición, diálogo y transparencia. Hay que enseñar a usar la IA, sí, pero sobre todo a pensar con ella, contra ella, más allá de ella. El estudiante que solo reproduce lo que la máquina le da, sin contrastarlo ni cuestionarlo, pierde su lugar como sujeto del conocimiento.

En paralelo, los padres tienen una responsabilidad igual de importante. No es aceptable que las familias desconozcan cómo sus hijos usan la IA o qué consecuencias tiene su uso. Pero tampoco es útil caer en el miedo o el rechazo. La ética en casa no se enseña con discursos, sino con ejemplo y acompañamiento. Conversar sobre el uso de tecnología, poner límites con sentido, modelar actitudes críticas frente a los algoritmos, son prácticas necesarias para formar ciudadanía digital. Como afirma Marín (2019), “el verdadero riesgo no es que la IA piense, sino que nosotros dejemos de hacerlo” (p. 7).


La inteligencia artificial puede ser una oportunidad educativa si se integra con conciencia y propósito. Pero también puede convertirse en una amenaza si consolida una cultura de la inmediatez, la delegación sin reflexión y la desresponsabilización moral. La ética, en este campo, no puede ser retórica: debe traducirse en prácticas concretas, criterios pedagógicos y acciones cotidianas. Y esto no es tarea solo de expertos, sino de todos quienes educamos, en la escuela y en el hogar.


Referencias


Degli-Esposti, S. (2023). La ética de la inteligencia artificial (Cap. 2, pp. 35–58). Consejo Superior de Investigaciones Científicas (CSIC). eISBN: 9788400112004.


Gómez Cárdenas, J. R., Fuentes Penna, A., & Castro Rascón, P. (2024). El uso ético y moral de la inteligencia artificial en educación e investigación. Dialnet. https://dialnet.unirioja.es/servlet/articulo?codigo=9773491Marín


García, S. (2019). Ética e inteligencia artificial. Cátedra CaixaBank de Responsabilidad Social Corporativa, Universidad de Murcia. https://www.um.es/web/responsabilidad-social/caixabank

Comentarios

Obtuvo 0 de 5 estrellas.
Aún no hay calificaciones

Agrega una calificación
bottom of page