👀 IA en el aula sin lupa: el riesgo de educar con tecnología sin formar en ciudadanía digital
Reflexión a partir del informe de Common Sense Media sobre chatbots “compañeros” y sus riesgos para niños y adolescentes, con propuestas concretas para docentes.
"Innovar no basta. También debemos cuidar."
#DespuésDeClase Podcast, ep. 069
En los últimos meses, he visto cómo docentes —con entusiasmo genuino y deseo de innovar— han comenzado a incorporar herramientas de inteligencia artificial generativa en sus clases: desde asistentes como ChatGPT hasta plataformas que personalizan el aprendizaje, la promesa de la IA educativa parece irresistible. Pero hay una pregunta que rara vez se hace en voz alta:
¿Estamos leyendo las letras pequeñas de esta revolución?
Un informe reciente de Common Sense Media advierte sobre el uso masivo de chatbots “compañeros” por parte de niños y adolescentes. Plataformas muy populares, como Character.AI, permiten conversaciones con personajes creados por IA que se presentan como apoyo emocional o amistoso. Lo preocupante es que, tras esa capa atractiva, se han detectado conversaciones con contenido inapropiado, sesgos de género y respuestas que refuerzan estereotipos o incluso sugieren autolesiones.
El problema no es solo la tecnología, sino cómo la estamos adoptando en la escuela. En muchos casos, la IA entra al aula como “herramienta de productividad” o “facilitador del aprendizaje”, pero sin criterios claros de ética, privacidad ni ciudadanía digital. La consecuencia: estudiantes que saben usar la tecnología, pero no comprenden cómo funciona, qué intereses mueve ni qué riesgos conlleva.
Una advertencia similar ha sido publicada recientemente por CNN, que alerta sobre los “riesgos inaceptables” de estas apps para menores de 18 años. Puedes leerla aquí.
¿Qué podemos hacer como docentes y líderes educativos?
Aquí tres acciones concretas para empezar:
Leer las letras pequeñas. Antes de usar una herramienta de IA, revisemos su política de datos, su diseño algorítmico y su modelo de negocio. ¿Qué incentivos tiene? ¿Qué rol juega el usuario? ¿A quién sirve realmente?
Educar desde la ciudadanía digital. No basta con enseñar a “usar” la IA. Debemos formar en pensamiento crítico, alfabetización mediática y competencias éticas. Los marcos de Common Sense Education y la UNESCO ofrecen un excelente punto de partida.
Cuestionar lo que se presenta como innovación. Si una herramienta educativa omite el respeto por la privacidad, el consentimiento o el bienestar emocional, no es innovación: es oportunismo. Y nosotros, como docentes, debemos saber distinguirlo.
Estamos en un momento clave. La IA llegó para quedarse, y puede ser una gran aliada si sabemos integrarla con intención, juicio y propósito pedagógico. Pero si dejamos que entre sin condiciones, estaremos enseñando a nuestros estudiantes a aceptar sin cuestionar.
Y eso, justamente, es lo opuesto a educar.
Te invito a escuchar el episodio 69 de #DespuésDeClase #Podcast, en el que abordo parte de este tema con algo más de detalle:
📣 ¿Qué piensas tú? ¿Estamos acompañando la innovación tecnológica con una mirada crítica y ética? Me encantaría leer tu perspectiva en los comentarios.
📤 Si este artículo te hizo pensar, compártelo con tus colegas. Es hora de abrir esta conversación en más escuelas.
Excelente perspectiva la que plantea Alberto, invita a ser más cuidadoso y reflexivo respecto al uso de la IA en el aula.
Excelente perspectiva la que plantea Alberto, invita a ser más cuidadoso y reflexivo respecto al uso de la IA en el aula.