El imperativo ético de la IA: Por qué la escuela debe liderar la soberanía tecnológica
La formación en ética ciudadana ante una inteligencia artificial que ya no solo procesa datos, sino que define realidades.

“Los modelos de inteligencia artificial son demasiado importantes para dejarlos en manos de los “siete magníficos”... Tenemos la posibilidad de construir una IA como construimos Internet: como un proyecto colectivo, descentralizado y diseñado para beneficiar al máximo número de personas.”
Marta Peirano, en el podcast El Hilo.
De la fascinación técnica al despertar crítico
En mi labor como consultor, observo a diario cómo las instituciones abrazan la Inteligencia Artificial bajo una narrativa de “eficiencia mágica”. Se nos presenta como el preceptor definitivo que democratizará el saber, pero esta visión ignora que la IA no es un ente abstracto; es una infraestructura de poder tecnocrático diseñada por corporaciones con intereses económicos y militares específicos.
En el aula, hemos pasado de evaluar el conocimiento a gestionar una “caja negra”. El riesgo no es solo que el estudiante use un chatbot para evitar el esfuerzo intelectual; el peligro también está en aceptar herramientas que son sistemas de captura de datos y repetición de patrones históricos sesgados. Como advierte la UNESCO, la IA puede convertirse en el “experto” ideal, desplazando inadvertidamente la capacidad humana de cuestionar la realidad.
El “efecto búmeran”: De la guerra al pupitre
El conflicto reciente entre la empresa Anthropic y el Pentágono (EEUU), constituye una advertencia para cada consejo escolar. Cuando una compañía se niega a renovar un contrato para evitar que su modelo alimente armas letales o vigilancia masiva, nos recuerda que la IA es una tecnología de doble uso.
Marta Peirano, recientemente entrevistada para un episodio del podcast “El Hilo” -del que soy un fanático declarado- describe con precisión el efecto bumerán: toda tecnología diseñada para vulnerar derechos en fronteras o campos de batalla, tarde o temprano, vuelve al origen para aplicarse sobre los ciudadanos locales. Si permitimos que algoritmos opacos decidan quién es apto para un crédito o un bombardeo, mañana esos modelos estarán en nuestras escuelas definiendo, sin transparencia, qué niño tiene “perfil de riesgo” o quién merece una calificación baja basándose en datos que ya nadie supervisa. La IA militar y la educativa beben del mismo flujo de datos; separar sus implicaciones es una ingenuidad peligrosa.
La ética como competencia de supervivencia
No hablamos de una reflexión filosófica lejana, sino de una competencia transversal que debe integrarse en el aula por tres razones fundamentales:
Soberanía sobre la verdad (Alfabetización Crítica): Los modelos actuales son “loros estocásticos” que repiten el sentido común predominante en la red sin comprender significados. Si el alumno no entiende que la máquina es un sistema de predicción probabilística y no una fuente de verdad, perderá la capacidad de distinguir entre el conocimiento verificado y un simulacro de mensaje.
Desmontar el sesgo industrial: La IA es un espejo de nuestro pasado, a menudo racista y sexista. Educar en ética significa enseñar a auditar esos resultados, a dudar de la fluidez autoritaria de la máquina y a defender la diversidad que los algoritmos tienden a homogenizar.
Evitar la atrofia cognitiva: Delegar la creación de sentido en un algoritmo compromete habilidades como el pensamiento crítico y la escritura autónoma. La escuela debe definir qué procesos deben seguir siendo humanos por el valor intelectual del esfuerzo.
La escuela como campo de resistencia
La respuesta institucional no puede ser la prohibición, que es solo un síntoma de falta de preparación. Propongo que las escuelas asuman una actitud hacker y de soberanía digital, basada en tres pilares:
Transparencia Epistémica: Debemos exigir saber “de dónde sale” la inteligencia de la herramienta. Esto implica conocer quién programó el sistema, bajo qué intereses y con qué datos se entrenó para identificar sesgos industriales. Comprender que la IA no revela verdades, sino probabilidades estadísticas, es vital para no delegar nuestra autoridad intelectual.
Contratos Sociales con la Tecnología: Los centros deben diseñar protocolos propios que vayan más allá de la regulación estatal. Esto significa proteger la privacidad de los estudiantes -menores de edad-, asegurar que los datos no sean explotados comercialmente y garantizar que la IA se use como una herramienta de apoyo y no como un juez autónomo que anule la relación docente-alumno.
Humanismo al Mando: No formamos operarios de software ajeno, sino directores con responsabilidad política. El estudiante debe aprender a conducir la IA con empatía y criterio, reconociendo que lo que decidimos hacer con ella es una cuestión exclusivamente humana. La autonomía intelectual solo se preserva cuando el humano mantiene el control sobre la lógica y el manejo del sistema.
El futuro es una decisión política
El optimismo necesario no es el de quien espera que la tecnología mejore sola, sino el de quien toma el volante. Como educadores, debemos recordar que el problema de la IA no es técnico; tenemos el conocimiento para construir sistemas resilientes. La ceguera es política: hemos permitido que la “mente artificial” avance más rápido que nuestra capacidad de educar sobre ella.
Si la educación se rinde ante la comodidad de la automatización, entregaremos la formación de la próxima generación a una infraestructura de control masivo. Educar en la ética de la IA es un acto de resistencia para asegurar que la tecnología sea un cimiento para el bienestar humano y no la soga que nos aísle de nuestra capacidad de razonar. Como bien dice Peirano, la tecnología es demasiado importante para dejarla en manos de unos pocos oligarcas. La batalla empieza hoy, en el aula.
Aprovecho para compartirles el epiosdio del podcast “El Hilo”, que motivó este breve artículo: vale mucho la pena escucharlo
Nos vemos… después de clase…


