🎙️ #078 Cuando la IA discrimina: el lado oculto de los algoritmos | Gabriela Arriagada 🇨🇱
Una conversación sobre ética, educación y justicia algorítmica con Gabriela Arriagada, docente e investigadora.
Este episodio inaugura la temporada 7 de Después de Clase, y marca también el inicio del séptimo año del podcast.
Antes de entrar en materia, quiero agradecer a quienes están suscritos a este espacio y a quienes escuchan el podcast desde distintos países. Después de Clase existe gracias a una comunidad que valora la reflexión pausada, el pensamiento crítico y el debate informado sobre educación, tecnología y sociedad.
Para abrir esta nueva temporada, quise comenzar con una conversación que no celebra la inteligencia artificial sin preguntas, sino que la examina con rigor.
🎧 Mira o escucha el episodio
👉 Spotify:
👉 Video de la entrevista: (clic en la imagen)
¿De qué va este episodio?
En este episodio converso con Gabriela Arriagada Bruneau 🇨🇱, filósofa e investigadora en ética de la inteligencia artificial y de los datos, profesora universitaria y autora del libro Los sesgos del algoritmo.
Gabriela desarrolla su trabajo académico en la Pontificia Universidad Católica de Chile y es investigadora asociada del Centro Nacional de Inteligencia Artificial (CENIA). Su investigación se sitúa en la intersección entre filosofía de la tecnología, justicia social y análisis crítico de los sistemas algorítmicos.
La conversación parte de una idea central:
hablar de inteligencia artificial es, inevitablemente, hablar de poder, de decisiones humanas y de consecuencias sociales.
Lejos de la narrativa que presenta a la IA como neutral, objetiva o inevitablemente progresiva, este episodio examina cómo los algoritmos pueden reproducir y amplificar desigualdades existentes, especialmente cuando se implementan sin criterios éticos claros en ámbitos sensibles como educación, salud, trabajo o políticas públicas.
Algoritmos, opacidad y “cajas negras”
Uno de los ejes de la conversación es el problema de la opacidad algorítmica. Gabriela explica por qué muchos sistemas actuales funcionan como “cajas negras”: modelos complejos cuyos procesos internos no son comprensibles ni auditables para quienes toman decisiones basadas en ellos.
Esta falta de transparencia no es solo un problema técnico. Es un problema político y ético, porque dificulta:
entender por qué un sistema decide lo que decide
identificar sesgos discriminatorios
asumir responsabilidades cuando una decisión automatizada causa daño
Cuando delegamos decisiones relevantes a sistemas que no comprendemos, la rendición de cuentas se diluye.
IA, pobreza y sesgos estructurales
El episodio profundiza también en cómo muchos sistemas algorítmicos terminan afectando con mayor dureza a las personas en situación de vulnerabilidad. No porque los algoritmos “quieran discriminar”, sino porque:
los datos disponibles suelen ser incompletos o de mala calidad
los problemas están mal formulados desde el inicio
los contextos sociales no se traducen adecuadamente en variables técnicas
En América Latina, donde las brechas estructurales son profundas, automatizar decisiones sin una lectura crítica del contexto puede convertir la tecnología en un amplificador de injusticias.
Educación, métricas y reduccionismo
En el ámbito educativo, la conversación plantea preguntas incómodas pero necesarias. Hoy utilizamos algoritmos para medir aprendizajes, evaluar docentes o predecir trayectorias académicas; pero ¿qué ocurre cuando reducimos procesos complejos a un solo indicador?
Gabriela cuestiona el enfoque que entiende la educación únicamente desde la eficiencia, la estandarización y la medición. Desde su perspectiva, aprender es un proceso situado, cultural y profundamente humano, que no puede capturarse completamente en métricas automatizadas.
La inteligencia artificial puede apoyar ciertos procesos, pero no reemplaza la mediación pedagógica, el juicio docente ni la relación educativa.
Alfabetización digital no es alfabetización ética
Otro punto clave del episodio es la distinción entre saber usar tecnología y saber evaluarla críticamente. La conversación subraya que:
formar en competencias digitales es necesario, pero insuficiente
sin alfabetización ética, las decisiones tecnológicas quedan en manos de pocos
docentes e instituciones necesitan criterios para discernir entre innovación genuina y promesa de marketing
Integrar IA en educación no es solo una decisión técnica; es una decisión pedagógica, ética e institucional.
Ideas que atraviesan toda la conversación
La inteligencia artificial no es neutral: refleja los valores de quienes la diseñan y la implementan.
No existe una IA sin sesgos; el desafío es reconocerlos y gestionarlos responsablemente.
Automatizar no equivale a mejorar.
La educación requiere tiempo, reflexión y presencia humana.
Pensar la IA críticamente es una forma de fortalecer la democracia y la ciudadanía.
Una conversación para abrir la temporada
Quise iniciar esta temporada con este episodio porque creo que hoy necesitamos menos entusiasmo acrítico y más criterio. La inteligencia artificial seguirá avanzando, pero la pregunta relevante no es qué puede hacer la tecnología, sino qué estamos dispuestos a delegar y bajo qué condiciones.
Este episodio no busca dar respuestas definitivas, sino ofrecer marcos para pensar mejor.
Si trabajas en educación, investigación, gestión institucional o políticas públicas, esta conversación es una invitación a comprender antes de adoptar.
Gracias por estar del otro lado y por seguir acompañando este espacio.
🎧 El episodio completo ya está disponible. Te invito a escucharlo con atención.



