🤖👧👦 Niños y chatbots de IA: ¿amigos virtuales o espejos peligrosos?
Un análisis urgente sobre el impacto de la inteligencia artificial conversacional en la infancia.

"No es la tecnología la que nos hace humanos, sino cómo decidimos usarla."
Sherry Turkle
Una conversación que ya empezó
En los últimos meses he seguido con atención un fenómeno que crece en silencio, pero a vista y paciencia de todos: niños y adolescentes conversando diariamente con chatbots de inteligencia artificial. No se trata solo de curiosidad académica; para muchos, es compañía, apoyo emocional o incluso sustituto de la conversación con adultos.
En mi propia investigación reciente he leído "Los sesgos del algoritmo" de Gabriela Arriagada Bruneau, releído "Weapons of Math Destruction" de Cathy O’Neil, y he contrastado lo aprendido con los hallazgos de Common Sense Media, Internet Matters, el marco de competencias de IA de UNESCO, y también con reportes de UNICEF y de la OCDE. La conclusión es clara: estamos frente a un desafío que no se resuelve con prohibiciones, sino con políticas responsables, pedagogía crítica y acompañamiento.
¿Qué encuentran los niños en un chatbot?
Los datos de Internet Matters son reveladores:
Muchos menores usan los chatbots de IA para resolver dudas escolares, pero también para pedir consejos personales.
Una parte significativa reconoce que “se siente como hablar con un amigo”.
Entre niños más vulnerables, el uso emocional se intensifica, aumentando el riesgo de dependencia.
A ello se suma que, como muestran investigaciones del MIT y la profesora Sherry Turkle, en su libro "Alone Together", los humanos tendemos a atribuir rasgos humanos a lo que responde con empatía simulada. Para un niño, distinguir entre un interlocutor real y uno artificial no es trivial, les causa confusión.
Riesgos que no podemos minimizar
Los informes de UNESCO y de la OCDE coinciden en que la IA puede ampliar inequidades si se usa sin control. En el caso de los niños, los riesgos incluyen:
Sesgos y estereotipos: los modelos replican prejuicios de género, raza o cultura presentes en sus datos de entrenamiento.
Dependencia emocional: cuanto más humanizado es el chatbot, más probable que un niño lo perciba como confidente.
Privacidad: muchos sistemas recopilan datos sensibles sin que el menor o su familia lo sepan.
Desinformación: los chatbots “alucinan”, es decir, inventan respuestas con apariencia de verdad.
Un punto clave: la apariencia de objetividad. Cuando una respuesta viene en formato de párrafo bien estructurado, el niño tiende a confiar, aunque la información sea errónea.
Lo que dicen las voces expertas
Common Sense Education enfatiza que la ciudadanía digital no es un “curso opcional”: es parte de la formación integral. Incluye enseñar a los estudiantes a reconocer dilemas éticos en su vida en línea. Para las instituciones implica un cambio cultural.
UNICEF ha advertido que el uso de IA en entornos infantiles requiere estándares de protección similares a los de salud pública: principio de precaución, interés superior del niño y obligación de rendición de cuentas.
UNESCO, en su ya famoso "Marco de Competencias de IA para Estudiantes", propone cuatro dimensiones: mentalidad centrada en lo humano, ética de la IA, técnicas y aplicaciones, y diseño de sistemas; es decir, no basta con “saber usar”, hay que comprender, aplicar y crear con responsabilidad.
La OCDE resalta que la educación en IA debe integrarse con marcos de bienestar digital, evitando tanto la exposición excesiva como la exclusión por falta de acceso.
¿Qué podemos hacer desde casa y la escuela?
Aquí no sirven las respuestas simplistas; prohibir no evita la curiosidad; dejar al niño solo frente a un chatbot es irresponsable. Se requiere un enfoque equilibrado.
Claves prácticas:
Co-navegar: compartir la experiencia, ver cómo preguntan, qué reciben y conversar sobre ello.
Definir límites claros: cuándo se puede usar IA (ideas, aprendizaje de idiomas, explicaciones) y cuándo no (temas de salud, conflictos personales, decisiones íntimas).
Fomentar pensamiento crítico: enseñar a preguntar por fuentes, contrastar respuestas y reconocer sesgos.
Entornos seguros: optar por herramientas que ofrezcan control parental, filtros de edad y transparencia.
Formación docente: como plantea UNESCO en su marco de competencias para maestros, los educadores deben formarse en ética, pedagogía con IA y aprendizaje continuo.
Más allá de la prohibición: una política de cuidado
Cuando hablamos de políticas de IA en la escuela, no deberíamos pensar en “listas negras” de aplicaciones, sino en criterios de adopción: seguridad, privacidad, evidencia pedagógica y respeto por la diversidad. Una política madura no solo evita daños, sino que potencia oportunidades.
Es posible imaginar aulas donde los chatbots se usen como sparring de ideas, siempre bajo la guía del docente, y donde los estudiantes aprendan a hacer preguntas poderosas, a evaluar la calidad de las respuestas y a debatir sus implicancias éticas.
Un tema que me preocupa (y nos debería preocupar)
Personalmente, este tema me toca profundamente. He dedicado semanas a leer, contrastar y discutir, y me queda claro que la conversación entre niños y chatbots no es ciencia ficción ni anécdota aislada: ya está ocurriendo.
El riesgo mayor no es que los niños hagan preguntas a la IA, sino que dejemos de hacerles preguntas nosotros: ¿qué piensas de esto?, ¿cómo te hace sentir?, ¿a quién acudirías en un problema real?
Para seguir la conversación
El próximo miércoles 24 de septiembre publicaré un episodio detallado sobre este tema en el podcast Después de Clase, en Spotify y Apple Podcasts. Será un espacio para analizar con ejemplos concretos, testimonios y propuestas prácticas.
Si quieres conversar más o explorar cómo diseñar políticas de IA en tu institución, escríbeme a alberto@despuesdeclase.org.
Porque la pregunta no es si los niños hablarán con chatbots; la pregunta es: ¿qué tipo de conversaciones queremos que tengan y con qué acompañamiento?
¡Hasta pronto!