Más allá del prompt: educar en IA no solo es enseñar a usar herramientas
Cuando la alfabetización en inteligencia artificial se reduce a productividad, perdemos la dimensión ética, pedagógica y humana del problema.

“Desarrollar una comprensión básica de cómo funcionan los sistemas de IA y de cómo influyen en la vida cotidiana ya no es opcional, sino esencial para una participación significativa y responsable en la sociedad contemporánea.”
Bilbao-Eraña & Arroyo-Sagasta, Frontiers in Education, 2025
En los últimos años he acompañado a decenas de colegios y universidades en procesos de formación sobre inteligencia artificial; con EdTech Latam hemos trabajado en talleres docentes, rediseños curriculares y en los primeros borradores de políticas institucionales de IA, lo que me ha permitido observar con cierta perspectiva un fenómeno que empieza a inquietarme: la mayoría de solicitudes que recibimos se centran casi exclusivamente en el uso instrumental de las herramientas.
La pregunta suele formularse así: ¿cómo usar ChatGPT para planificar más rápido?, ¿cómo generar exámenes?, ¿cómo resumir textos?, ¿cómo ahorrar tiempo? Pocas veces la conversación comienza con una interrogante más profunda: ¿qué significa pensar en una cultura escolar atravesada por sistemas generativos?, ¿qué tipo de sujeto estamos formando cuando externalizamos procesos cognitivos complejos?, ¿qué ética del conocimiento estamos promoviendo?
No se trata de oponerse a la tecnología; sería absurdo hacerlo. La cuestión es otra: si reducimos la formación en IA a productividad y eficiencia, dejamos intacta la pregunta más importante, la que tiene que ver con la formación humana.
El riesgo de confundir alfabetización con destreza técnica
La investigación reciente es clara: la alfabetización en IA no puede reducirse a saber usar herramientas. Bilbao-Eraña y Arroyo-Sagasta (2025) señalan que la alfabetización en IA incluye dimensiones cognitivas, afectivas, sociales y éticas; no solo comprensión conceptual, sino también actitud, confianza y conciencia crítica
Esto quiere decir, formar en IA implica trabajar la relación que las personas establecen con la tecnología, no únicamente su competencia operativa.
El Marco Australiano para IA Generativa en Escuelas -un referente importante en el uso de la IA en educacación- define su propósito como “orientar el uso responsable y ético de las herramientas de IA generativa de manera que beneficie a los estudiantes, las escuelas y la sociedad”.
La palabra clave aquí no es uso, sino responsable y ético; tampoco es beneficio individual inmediato, sino impacto en estudiantes, escuelas y sociedad. Esa triple dimensión desaparece cuando la formación se limita a “cómo escribir mejores prompts”.
He visto talleres en los que el objetivo explícito es aprender a “optimizar instrucciones” o “automatizar tareas repetitivas”; nada de eso es incorrecto en sí mismo; el problema aparece cuando esa lógica se convierte en el eje central del discurso educativo. Cuando la conversación gira exclusivamente en torno a eficiencia, la reflexión ética se vuelve periférica, y la dimensión antropológica —qué significa aprender, pensar, crear— queda fuera del radar.
Pensar no es lo mismo que generar
Cristina Costa y Mark Murphy, en Generative artificial intelligence in education: (what) are we thinking? (2025), recuperan la preocupación de Hannah Arendt por la “thoughtlessness”, la ausencia de pensamiento como riesgo cultural. Su pregunta es incómoda y necesaria: ¿puede, o debería, automatizarse el pensamiento?
La ilusión que producen los modelos generativos es potente: textos coherentes, argumentos bien estructurados, síntesis veloces. Pero coherencia no es sinónimo de comprensión; generación no es equivalente a reflexión. Cuando un estudiante delega sistemáticamente la elaboración conceptual a un sistema generativo, no está necesariamente aprendiendo a pensar mejor; puede estar aprendiendo a depender más.
No es casual que el informe Me, myself & AI (2025), elaborado por la organización Internet Matters, advierta que muchos jóvenes confían de manera acrítica en las respuestas de los chatbots, incluso cuando son inexactas o insuficientes. Si eso ocurre en el ámbito cotidiano, ¿qué sucede cuando institucionalizamos el uso sin formar criterio?.
Aquí es donde mi preocupación se vuelve más intensa: si las escuelas no desarrollan una cultura sólida en relación con la IA, corremos el riesgo de repetir errores ya conocidos —como ocurrió con las redes sociales—, reaccionando tarde, regulando después del daño y delegando en las familias lo que debería ser un proyecto formativo colectivo.
No basta con reglamentos
Muchas instituciones, cuando perciben el impacto de la IA generativa, reaccionan con reglamentos: cuándo está permitido usarla, cuándo no; qué porcentaje de un trabajo puede estar asistido por IA; qué sanciones aplican en caso de incumplimiento. Estas medidas son necesarias, pero insuficientes.
Una política de IA no es solo un documento normativo; es una declaración cultural. El Marco Australiano habla explícitamente de principios y orientaciones para alinear prácticas y desarrollar trabajo futuro; eso implica visión estratégica, no solo control.
Si educar “con IA” significa integrar herramientas en el aula, y educar “sobre IA” implica comprender cómo funcionan y cuáles son sus límites, educar “en IA” —en el sentido más profundo— supone formar criterio, responsabilidad y honestidad intelectual. Supone preguntarnos qué entendemos por autoría, por creatividad, por evaluación, por aprendizaje significativo.
En ese sentido, la investigación sobre formación docente muestra que intervenciones breves pero conceptualmente sólidas pueden mejorar la conciencia y actitud frente a la IA. No estamos ante un problema irresoluble; estamos ante una decisión institucional: ¿queremos formar usuarios eficientes o ciudadanos críticos?
Productividad versus formación
En varios cursos corporativos sobre IA, la promesa es: automatizar tareas, maximizar eficiencia, reinventarse para sobrevivir en mercados competitivos. Ese discurso tiene sentido en entornos empresariales, pero trasladarlo sin mediación al ámbito educativo es problemático. La escuela no existe para producir más rápido; existe para formar mejor.
Cuando el lenguaje dominante es “optimizar”, “acelerar”, “automatizar”, el riesgo es que la educación adopte sin filtro la lógica de la productividad, desplazando la lógica de la formación. Y la formación, a diferencia de la productividad, requiere tiempo, fricción, duda, ensayo y error; requiere pensamiento.
Arendt advertía que el mayor peligro no era la maldad consciente, sino la incapacidad de pensar críticamente sobre lo que hacemos. Si la IA nos ofrece respuestas inmediatas, la tarea educativa no puede ser simplemente enseñar a obtenerlas mejor, sino enseñar a interrogarlas, contextualizarlas y, cuando sea necesario, rechazarlas.
Hacia una cultura sólida de IA en la escuela
Mi preocupación no nace del rechazo a la tecnología; al contrario, trabajo cada semana con instituciones que quieren integrarla con sentido. Lo que me inquieta es la superficialidad de algunas demandas formativas, la reducción de la IA a un conjunto de trucos operativos y la ausencia de una reflexión más amplia sobre el tipo de cultura escolar que estamos construyendo.
Una cultura sólida en relación con la IA debería incluir, al menos:
Comprensión conceptual básica de cómo funcionan los sistemas generativos y cuáles son sus límites.
Discusión ética explícita sobre sesgos, privacidad, autoría y responsabilidad.
Rediseño de evaluaciones que valoren procesos, no solo productos.
Formación docente continua que combine dimensión técnica y reflexión pedagógica.
Participación estudiantil en la construcción de criterios y acuerdos institucionales.
En definitiva, una cultura que no solo enseñe a usar la IA, sino a convivir críticamente con ella.
Una invitación a ir más allá del uso instrumental
La inteligencia artificial generativa llegó para quedarse; ignorarla sería irresponsable; pero abrazarla sin reflexión también lo es. Entre el entusiasmo acrítico y el miedo paralizante hay un espacio fértil: el de la deliberación pedagógica, ética y cultural.
Si algo he aprendido en estos años es que las herramientas cambian rápido; las culturas institucionales, no tanto. Por eso, antes de preguntar cómo escribir mejores prompts, quizás deberíamos preguntarnos qué tipo de pensamiento queremos preservar y potenciar en nuestras escuelas.
Gracias al maestro que, con una pregunta aguda y profundamente reflexiva en el taller de ayer, motivó la escritura de estas líneas. Este artículo no fue solo una respuesta: fue una necesidad; y, en cierto sentido, también una liberación.
Nos vemos… después de clase.


