“El riesgo de la simulación: Inteligencia Artificial e investigación en ciencias sociales”
Nota de opinión.
Publicada el 6 de abril de 2026.
![]() |
Por Valeria Odetti, Doctoranda en Ciencias Humanas (UNSAM), su investigación se centra en las prácticas docentes mediadas por inteligencia artificial en contextos universitarios latinoamericanos. Es profesional técnico del IICSAL (FLACSO-CONICET) y coordinadora del área de educación a distancia de FLACSO Argentina. Es miembro fundadora de la Red Académica de Inteligencia Artificial y Educación (RAEIA) y conduce el podcast “Esto NO es una IA. Conversaciones humanas sobre inteligencia artificial”. |
Sabía que al volver de las vacaciones me esperaban trabajos finales de una diplomatura para corregir. Cuando uno enseña un tema hace muchos años, difícilmente se encuentre con algo muy original, pero esta vez me llevé una sorpresa. Los trabajos no sólo no eran originales: eran casi literalmente todos iguales. Como pedagoga, sé que probablemente haya habido alguna falla en la consigna. Sin embargo, en este caso había otra variable incluida en esos productos: la IA. Y se hacía notar en varios elementos: las viñetas omnipresentes, la adjetivación exagerada, el desarrollo conceptual limitado, las conclusiones apresuradas y siempre grandilocuentes.
Esta experiencia, que seguramente muchos colegas comparten, me llevó a una pregunta más inquietante: ¿qué pasa cuando cerramos el circuito completo? ¿Cuando no solo los estudiantes usan IA para producir sus trabajos, sino que nosotros, agobiados por la cantidad de entregas, tentados por la promesa de eficiencia, también recurrimos a IA para evaluarlos? Todos cumplimos formalmente con nuestros roles, pero ¿realmente está sucediendo algo?
La preocupación por cómo construimos evidencias de aprendizaje en tiempos de IA es también una preocupación por cómo construimos conocimiento. El desafío de simulación que acecha a la enseñanza se amplifica en la investigación: ya no se trata solo de simular que aprendemos (o que enseñamos), sino de simular que producimos conocimiento, que construimos aportes genuinos a los campos en los que trabajamos. Y para comprender la magnitud de este riesgo, es necesario reconocer tres dimensiones que operan simultáneamente: los sesgos epistemológicos inscritos en estas tecnologías, los imaginarios sociotécnicos que las impulsan, y el fenómeno de la simulación que puede vaciar nuestras prácticas de sentido.
Para comprender la magnitud de este riesgo, es necesario primero reconocer que las tecnologías de IA no son herramientas neutrales. Venimos señalando en diversos espacios que estos sistemas cargan con sesgos epistemológicos que reproducen y naturalizan determinadas concepciones acerca de qué es conocer, cómo se conoce y para qué se conoce. En investigaciones previas sobre sesgos pedagógicos en sistemas de IA, hemos identificado cómo estos tienden a privilegiar modelos transmisivos, individualizados y orientados a la eficiencia medible, en detrimento de aproximaciones dialógicas, colaborativas y críticas.
Este sesgo pedagógico es en realidad expresión de un sesgo epistemológico más profundo: la preferencia por conocimientos fragmentados, procedimentales y cuantificables. Cuando un investigador utiliza una IA para “analizar” entrevistas cualitativas, el sistema no simplemente “ayuda” en la tarea; impone una ontología particular sobre qué constituye un “hallazgo”, privilegiando patrones estadísticos sobre comprensiones interpretativas, frecuencias sobre significados situados o correlaciones sobre comprensiones contextuales. La pregunta no es si la IA “se equivoca” en su análisis, sino si el tipo de conocimiento que produce es compatible con los compromisos epistemológicos asumidos por nuestras comunidades académicas.
Estos sesgos no emergen del vacío, sino que responden a lo que llamamos imaginarios sociotécnicos dominantes: visiones sobre el futuro que están siendo moldeadas principalmente desde el norte global y desde lógicas corporativas. Estos imaginarios promueven una investigación “optimizada”, “escalable”, “basada en datos”, donde el investigador se convierte progresivamente en un curador de outputs algorítmicos más que en un intérprete situado de realidades complejas.
Para América Latina, esto plantea desafíos particulares. Nuestras tradiciones en ciencias sociales han enfatizado históricamente el compromiso con lo situado, lo crítico, lo colectivo. Desde Paulo Freire hasta Aníbal Quijano, desde la investigación acción participativa hasta los enfoques decoloniales contemporáneos, hemos construido formas de conocer que resisten precisamente aquello que las IA tienden a reproducir: la fragmentación del conocimiento, la neutralización del sujeto investigador, la descontextualización de los saberes. ¿Qué sucede cuando estas tradiciones se encuentran con tecnologías diseñadas bajo otros imaginarios?
Pero el problema va más allá de la incompatibilidad epistemológica. El verdadero riesgo es lo que podríamos llamar la “automatización de la reflexividad”: ese momento en que dejamos de pensar críticamente sobre nuestras propias prácticas porque confiamos en que las herramientas lo están haciendo por nosotros. Está demostrado que tendemos a percibir las acciones automatizadas como poseedoras de una capacidad analítica mayor a la nuestra. Es aquí donde emerge, entonces, el peligro de la simulación.
Consideremos el ciclo completo de una investigación contemporánea atravesada por IA: la revisión bibliográfica es realizada por sistemas que pre-seleccionan y resumen papers según algoritmos opacos; la recolección de datos es mediada por plataformas que ya han categorizado y estructurado la información; el análisis es asistido por herramientas que identifican patrones según sus propios criterios; la escritura es mejorada por sistemas que ajustan el texto a estándares retóricos predefinidos; y finalmente, la evaluación por pares puede ser apoyada por IA que detectan calidad, originalidad y rigor según métricas automatizadas. En cada paso, cumplimos formalmente con los rituales de la investigación pero cuál es el límite de esa “asistencia” porque investigar es también perderse, dar vueltas, volver a mirar. ¿Dónde está la sorpresa del dato inesperado? ¿Dónde el diálogo interpretativo con nuestros marcos teóricos? ¿Dónde la escritura como proceso del pensamiento?
Y aquí es donde el problema se vuelve sistémico. Este fenómeno se torna relevante cuando se cierra el circuito: cuando no solo los investigadores usan IA para producir conocimiento, sino que las propias instituciones académicas emplean IA para evaluar ese conocimiento. Si los papers son escritos con asistencia algorítmica y luego evaluados algorítmicamente, ¿qué estamos midiendo realmente? ¿La calidad de la investigación o la capacidad de los sistemas para reconocerse mutuamente? ¿No estaríamos entonces ante una suerte de onanismo académico donde las máquinas conversan entre sí mientras nosotros nos limitamos a supervisar superficialmente el intercambio?
La solución no pasa por rechazar las tecnologías de IA, sino por recuperar el control epistemológico sobre nuestras prácticas investigativas. Esto implica, en primer lugar, desarrollar una alfabetización crítica sobre estos sistemas que vaya más allá de aprender a usarlos eficientemente. Necesitamos comprender sus sesgos, sus limitaciones, las ontologías que naturalizan. En segundo lugar, requiere establecer límites claros sobre qué aspectos del proceso investigativo son delegables y cuáles deben permanecer irreductiblemente humanos. Que todo, o casi todo, pueda ser automatizado no significa que deba serlo.
Más importante aún, necesitamos fortalecer aquellas dimensiones de la investigación que las IA no pueden replicar: la reflexividad situada, el compromiso ético con las comunidades que estudiamos, la creatividad teórica, la capacidad de sorprendernos ante lo inesperado, el diálogo interpretativo con nuestros pares. Estas no son “ineficiencias” a superar mediante la automatización, sino el corazón mismo de lo que hace valiosa a la investigación en ciencias sociales.
Finalmente, como comunidad académica latinoamericana, tenemos la oportunidad y la responsabilidad de disputar los imaginarios sociotécnicos sobre el futuro de la investigación. Esto significa no solo resistir la imposición de modelos diseñados en otros contextos, sino proponer activamente alternativas que honren nuestras tradiciones críticas. ¿Cómo se vería una IA diseñada desde epistemologías decoloniales? ¿Qué tipo de sistemas necesitaríamos para potenciar, en lugar de reemplazar, la investigación participativa y comprometida?
El riesgo de la simulación es real, pero no es inevitable. Depende de nosotros decidir si las tecnologías de IA se convertirán en herramientas que enriquecen nuestras capacidades investigativas o en mecanismos que nos permiten simular que investigamos mientras vaciamos nuestras prácticas de sentido. La pregunta no es si usaremos estas tecnologías —ya lo estamos haciendo— sino cómo las usaremos sin perder aquello que nos hace genuinamente humanos como investigadores: la capacidad de pensar crítica, situada y colectivamente sobre las realidades que estudiamos.

