⭐ Reordenando la formación en IA desde la base: lo que aprendí en el XIII Congreso de Educación Continua de Chile 🇨🇱
Cuando la tecnología avanza más rápido que las instituciones, los marcos se vuelven esenciales
“La educación en IA no empieza en la herramienta: empieza en la capacidad de pensar sobre ella.”
Bilbao-Eraña & Arroyo-Sagasta (2025)
Los días 25 y 26 de noviembre participé en el XIII Congreso Internacional de Educación Continua “IA y Transformación Digital en la Educación Continua Universitaria”, organizado por la Red Universitaria de Educación Continua de Chile. Viajé para presentar mi estudio exploratorio “Alfabetización en IA para profesionales: marco 4×3 y experiencias de implementación en América Latina”. La intención de este trabajo de investigación, al que fui invitado a participar hace poco más de un año, fue el poder hacer un aporte a las instituciones educativas, dada la coyuntura:
Todos quieren formar en IA, todos sienten urgencia; pero muy pocos tienen un marco.
Y cuando no hay un marco, la formación se fragmenta, los mensajes se contradicen y la estrategia se diluye en “talleres aislados”. Lo que descubrí en Chile —y que reafirma el trabajo de estos últimos años— es que la pieza que falta no es más tecnología, sino claridad conceptual. No basta enseñar herramientas; necesitamos aprender a pensar y decidir sobre ellas.
La urgencia está clara; lo que falta es dirección
Entre los participantes del congreso, de diferentes partes de Chile y algunos extranjeros, la conversación era prácticamente la misma:
“Tenemos que capacitar a nuestros docentes en IA, pero no sabemos por dónde empezar”.
“Los estudiantes ya usan IA, ¿cómo los guiamos?”
“¿Podemos incluir IA en nuestros programas sin perder el rigor académico?”
Lo interesante es que no son preguntas técnicas, sino preguntas institucionales.
Se parecen, por cierto, a las que escuchamos en educación básica, en las escuelas, en la formación corporativa y en el sector público.
Lo que muchos participantes expresaron —a veces sin decirlo literalmente— es esto:
No necesitamos otra herramienta; necesitamos un mapa.
Y un mapa no es un listado de apps; un mapa es un marco de referencia: una estructura que ordena a quién formamos, para qué y bajo qué principios.
Sin principios rectores, la formación se vuelve una excusa
En mi presentación en Santiago mostré un punto que conectó con muchos asistentes:
la formación en IA no es una colección de talleres, sino una expresión operativa de una política institucional.
Dicho de otra forma: Un curso de “IA para docentes” no significa nada si no sabemos qué queremos proteger, qué queremos potenciar y qué no estamos dispuestos a sacrificar. Esto no es teoría, es gobernanza.
Documentos como el Marco de IA para Docentes de UNESCO (2024), el Marco Australiano de IA Generativa en Escuelas (2023) y el AI Literacy Framework plantean algo en común:
Antes de hablar de usos concretos, una institución debe tener claros sus principios rectores, que suelen girar en torno a:
Uso responsable y ético
Equidad y accesibilidad
Mejora de procesos de aprendizaje y enseñanza
Finalidad formativa, no meramente instrumental
Protección de datos y transparencia
Cuando estos principios existen, la formación cobra sentido; cuando no, la formación se convierte en un checklist, sin fondo; una formación que todos aplauden, y casi todos olvidan.
Un marco 4×3 para alfabetizar en IA sin perder lo humano
En mi presentación en el congreso mostré por primera vez el marco 4×3 de Alfabetización en IA para Profesionales, construido durante mi estudio exploratorio y afinado a partir de docenas de sesiones con docentes, directivos y equipos académicos. El marco nació de una necesidad evidente: ordenar la formación en IA de manera transversal, rigurosa y humanista, antes que dispersarla en talleres desconectados.
Este marco propone cuatro dimensiones de la alfabetización y tres niveles de competencia formativa, articulados entre sí para que cualquier institución pueda diseñar programas coherentes y progresivos.
Las 4 dimensiones (lo que toda persona debe desarrollar)
Mentalidad centrada en lo humano
Cómo preservar el juicio profesional, comprender el rol complementario de la IA y evitar la sobredependencia, la pérdida de agencia y los sesgos de equidad.Ética y Gobernanza
Privacidad, transparencia, trazabilidad, veracidad, regulación interna y alineamiento con políticas institucionales y estándares éticos.Técnicas y Aplicaciones
Modelos, límites, riesgos técnicos, calidad de las salidas, pertinencia, alucinaciones y verificación crítica.Diseño de Sistemas y Flujos de Trabajo
Prompting estratégico, agentes, optimización de flujos, diseño de procesos híbridos humano–IA y mejora iterativa basada en evidencia.
Los 3 niveles de competencia (cómo se desarrolla esa alfabetización)
Entender
Fundamentos conceptuales: cómo funcionan los modelos, qué pueden y no pueden hacer, dónde fallan, qué riesgos éticos implican y qué principios deben guiar su uso.Evaluar
Capacidad crítica: juzgar calidad, pertinencia, evidencia, trazabilidad; identificar riesgos de agencia, sesgos, alucinaciones y problemas técnicos; y contrastar con políticas institucionales.Usar
Dominio práctico y responsable: diseñar prompts y agentes, integrar IA en flujos reales, verificar resultados, proteger datos y mejorar iterativamente los procesos sin delegar el criterio humano.
Un mapa para dejar de improvisar
Cuando estas 4 dimensiones se cruzan con los 3 niveles de competencia, aparece un mapa completo para diseñar formación estratégica: qué debe aprender cada rol institucional (directivos, docentes, equipos académicos, personal administrativo o incluso estudiantes avanzados), con qué profundidad y con qué propósito.
Esa claridad fue, para muchos asistentes del congreso, el elemento más valioso:
“Esto es exactamente lo que nos faltaba para ordenar la formación y dejar de improvisar.”
Porque no se trata de “enseñar herramientas”, sino de construir capacidad institucional, proteger lo humano y diseñar prácticas responsables de uso de IA en educación.
Políticas institucionales: el paso que nadie puede saltarse
La conversación sobre formación en IA no existe si no hay antes una política institucional de IA; no para prohibir, sino para orientar y proteger.
En los últimos meses he acompañado a varias instituciones en este proceso; y casi siempre aparece el mismo patrón:
Sin política → cada área interpreta la IA a su manera.
Con política → la institución tiene un marco para decidir, formar, evaluar y corregir.
En el congreso, varios equipos de universidades reconocieron que implementar talleres sin política los llevó a inconsistencias difíciles de revertir: desde enfoques contradictorios entre facultades hasta mensajes ambiguos hacia los estudiantes.
Hace algunas semanas abordé este tema en un artículo en Después de Clase, que aprovecho para recomendar, nuevamente, dada su pertinencia: “¿Tu institución ya tiene una política de IA?”
🧠📚 ¿Tu institución educativa ya tiene una política de IA?
“La tecnología es solo una herramienta. En términos de motivar a los estudiantes y hacerlos trabajar juntos, el maestro es lo más importante.”
Lo esencial: la formación en IA no es técnica, es cultural
Si algo me dejó este congreso es la confirmación de una idea que vengo trabajando desde hace algún tiempo:
La IA está obligando a las instituciones a repensarse a sí mismas.
No se trata de integrar una herramienta, sino de actualizar sus capacidades internas:
pensamiento crítico,
toma de decisiones basada en datos,
evaluación auténtica,
ética aplicada,
diseño pedagógico,
desarrollo profesional en ciclos breves.
La IA visibiliza debilidades que ya existían: fragmentación institucional, procesos inconsistentes, poca articulación entre niveles, dependencia del trabajo individual del docente. Por eso un buen marco de referencia no solo ordena la formación en IA, sino que fortalece la cultura educativa.
Una nota personal: lo que aprendí en Chile
Dejar de lado la discusión sobre “la herramienta de moda” fue liberador e inspirador. Lo más valioso del congreso fueron los espacios de discusión y las preguntas profundas:
¿Qué competencias queremos preservar como humanas?
¿Qué tareas sí podemos delegar y cuáles nunca deberíamos automatizar?
¿Cómo evaluamos en una época donde lo importante no es producir respuestas, sino formular mejores preguntas?
¿Qué significa enseñar pensamiento crítico cuando la IA responde más rápido que nosotros?
Volví con la sensación de que estamos entrando en una fase distinta:
La conversación ya no es “qué puede hacer la IA”, sino “qué queremos que haga la educación con ella”.
Ese matiz, pequeño pero decisivo, cambia todo.
Para quienes lideran la transformación: por dónde empezar
Si diriges un colegio, facultad, instituto o área académica, mi recomendación es esta:
1. Define principios rectores: Son la brújula ética, pedagógica y organizacional.
2. Diseña una política de IA institucional: No es un documento técnico; es un acuerdo cultural.
3. Usa un marco de referencia (como el 4×3) para ordenar la formación: A cada actor, lo que realmente necesita.
4. Pilota, aprende y ajusta: No hay implementaciones perfectas; sí hay implementaciones responsables.
5. Comunica. Mucho: Lo peor para una institución en tiempos de IA es el silencio.
Si algo me llevo del congreso, es esto
La IA no es “un futuro por venir”: la IA ya está reconfigurando nuestras instituciones; pero el futuro de la educación no será escrito por los modelos, sino por la capacidad humana de comprender, decidir, acompañar, evaluar y enseñar a pensar.
Y eso —al menos por ahora— sigue siendo profundamente humano.
Si quieres profundizar, te dejo tres referencias imprescindibles para empezar:
Marco de IA para Docentes – UNESCO (2024)
AI Literacy Framework – US / Global (2024-2025)
Australian Framework for Generative AI in Schools (2023)
Pronto compartiré también la versión extendida del marco 4×3 y algunos recursos para implementarlo en instituciones que recién comienzan este camino.
Gracias por leer este artículo. Y gracias a la Universidad de Chile por crear este espacio para una conversación urgente y necesaria. Sin duda, regresaré el próximo año.





