Son muchas las respuestas que el hombre se hace frente a esta revolución técnologica, que aún no se ha resuelto, primero por lo novedoso de su aparecimiento (Pese a que tiene muchos años para las TIC) y disposición para el ciudadano comun y por supuesto para toda la sociedad. No hablo desde la perspectiva de sus aplicaciones, sino del papel que jugará en todo el espectro humano, que va desde lo mínimo, hasto lo más altamente especializado. Cómo descifrarla desde una óptica psicologica, sociologica, filosofica, política y antropológica, para solo hablar de aspectos más densos, que son por ahora indefinibles con claridad. Estos artículos tomados de la revista "Letras libres" buscan dilucidar la IA para la naturaleza humana, en lo individual y sus efectos en la sociedad en general. CESAR HERNANDO BUSTAMANTE
Muchas universidades han regresado a los exámenes orales y escritos ante el temor de que los alumnos usen la inteligencia artificial. Hoy que un trabajo final puede elaborarse en cuestión de minutos no solo se ha vuelto imprescindible preguntarnos qué significa aprender e investigar, sino principalmente cómo hacer que la tecnología reduzca la brecha educativa, en lugar de hacerla más grande.
por
Nain Martínez
1 septiembre 2025
En una sala silenciosa de la hemeroteca digital, Mariana abre un archivo con miles de periódicos capitalinos de los años sesenta. Pide a un modelo de inteligencia artificial que rastree controversias sobre contaminación y recibe, en minutos, un listado de protestas contra el humo de las fábricas. Respira aliviada: el semestre parece salvado. Luego duda. El informe usa nociones de “ambientalismo” acuñadas mucho después; quizá el algoritmo filtró historias que en 1964 nadie habría llamado así. ¿Dónde quedaron las luchas por el agua y los parques convertidos en basureros clandestinos? La tecnología que prometía agilizar la pesquisa ahora le exige mayor vigilancia. Investigar consiste también en darle la vuelta a la criatura maquinal, seguir sus huellas y preguntar qué voces deja fuera. Ahí comienza la revolución que este texto explora.
Pero esta revolución tiene una historia vertiginosa. Aunque sus raíces se remontan a la década de los cuarenta, el estallido ocurrió en 2022. Ese año, aplicaciones como Dall-E plasmaron simples frases en imágenes de una originalidad pasmosa y abrieron la puerta a la invención maquinal o, mejor dicho, al nacimiento de una criatura algorítmica capaz de crear. Unos meses más tarde, el gólem sintético se volvió conversación. El lanzamiento de ChatGPT puso en manos de millones un interlocutor artificial capaz de resumir las ideas clave de un capítulo, redactar un soneto o elaborar código informático, lo cual la convirtió en la aplicación de más rápido crecimiento de la historia. El avance no se detuvo. Desde 2024, modelos como ChatGPT, Claude y Gemini comenzaron a integrar texto, imagen y audio en tiempo real, mediante una conversación continua casi humana. Tres años bastaron para disolver las fronteras de lo posible y sacudir la idea de qué significa pensar en la era de la IA. Ese torbellino obliga hoy a las instituciones de educación superior a mirarse en el espejo y revisar las bases de su labor académica.
La diferencia de esta nueva estirpe de inteligencia artificial no se limita a la rapidez de su desarrollo. La verdadera disrupción de esta criatura sintética reside en su capacidad para emular –y en ocasiones superar– habilidades cognitivas que considerábamos exclusivamente humanas y a salvo de la automatización. Redacta informes, traduce textos, explora bases de datos inmensas y condensa información con una soltura que desconcierta. Sus modelos incursionan, por lo tanto, en el ámbito del juicio; ordenan el conocimiento desde dentro, de manera opaca, generando síntesis que no siguen las pautas de rigor que se enseñan en el aula. Por eso, las instituciones de educación superior enfrentan un reto doble. Por un lado, redefinir qué cuenta como aprendizaje cuando el proceso puede quedar, al menos en parte, en las manos sintéticas del algoritmo; y por otro, formar a sus estudiantes para profesiones que esta inteligencia ubicua ya está reescribiendo.
Cuando el autómata habita la academia
El impacto más evidente de esta tecnología ha sido en la autoría. El temor al plagio algorítmico –el uso de modelos como ChatGPT para elaborar trabajos académicos– encendió las alarmas entre docentes. Pero pronto quedó claro que este problema, aunque preocupante, apenas roza la superficie. Los estudios sobre las herramientas para detectar textos generados con IA muestran tasas de falsos positivos de hasta el 50% de los casos, penalizando particularmente a quienes escriben en idiomas distintos al inglés.1 Con ese margen de error, la meta no puede reducirse a identificar infractores; exige repensar cómo evaluamos el aprendizaje.
Ese replanteamiento ya ocurre en muchas aulas. Docentes sustituyen exámenes finales por ejercicios presenciales y monitorean el avance de los trabajos. Un ensayo riguroso no se elabora en un día; es resultado de un proceso que deja rastro, y seguirlo forma parte de la lección. Al mismo tiempo, la ia abre filtraciones luminosas. Bien empleada, puede actuar como tutora personalizada que aclare dudas, ayude a identificar bibliografía fiable, traduzca fuentes o apoye a un estudiante para vencer el temor a exponer en público. El reto consiste en diseñar tareas que impulsen el razonamiento humano, mostrar dónde fallan los modelos y enseñar a usarlos con ética para ampliar, y no empobrecer, las competencias profesionales.
En el ámbito de la investigación, la promesa es igualmente deslumbrante. Modelos que filtran millones de textos y simulan moléculas permiten que los equipos de trabajo se libren de tareas interminables, lo cual abre atajos inéditos. En 2022, AlphaFold –creado por DeepMind, filial de Google– publicó las formas tridimensionales de más de doscientos millones de proteínas, meta que habría llevado siglos de experimentación, e impulsó una carrera por diseñar fármacos en tiempo récord. Algo parecido ocurre en las ciencias sociales y las humanidades, donde un algoritmo clasifica décadas de debates parlamentarios, transcribe miles de entrevistas o sigue los rastros de un pintor al comparar lienzos dispersos. El tiempo antes consumido en la criba se vuelca ahora en formular preguntas más ambiciosas.
Un aspecto no menor es cómo estas herramientas pueden, en principio, democratizar el acceso y la producción de conocimiento. Nueve de cada diez artículos en ciencias naturales se publican en inglés;2 para un equipo en Dakar o en Bogotá, esa barrera se traduce en semanas adicionales de trabajo. Hoy, un modelo traduce al instante un estudio de física o una monografía de historia del arte y derriba ese muro. Aprovechar esa ventana promete una conversación académica con acentos diversos, aunque la puerta recién entreabierta anuncia desafíos aún mayores.
Los modelos, entrenados con un corpus dominado por textos anglosajones, arrastran sesgos. Cuando analizan movimientos sociales latinoamericanos, pueden privilegiar marcos teóricos del norte global si leen las juntas de buen gobierno zapatistas a través del lente de la “governance” liberal o interpretan el suma qamaña andino (vivir bien) como “desarrollo sostenible”, borran así contextos y tradiciones propias de autonomía política. Su mecánica interna sigue oculta, de modo que sus respuestas llegan como veredictos sin expediente; reconstruir la ruta lógica resulta casi imposible. Cuando una hipótesis depende de esa caja opaca, la reproducibilidad –piedra angular del método científico– se tambalea. La máquina que acelera el hallazgo exige un escepticismo de relojero y protocolos que documenten los datos, interroguen al algoritmo y contrasten sus hallazgos con métodos independientes.
Domesticar la criatura algorítmica
Navegar esta realidad desborda el esfuerzo aislado de docentes e investigadores. Exige una arquitectura institucional que vaya más allá de la prohibición. Las universidades deben actualizar sus lineamientos de ética académica para definir, con precisión, cuándo la inteligencia sintética participa como colaboradora legítima y cuándo vulnera la integridad del trabajo propio. Urge también una alfabetización crítica para el profesorado, capaz de rediseñar sus métodos y guiar a los estudiantes en un uso responsable de estas herramientas.
Ese horizonte ético se cruza con decisiones muy terrenales sobre licencias, seguridad y costos. La disyuntiva entre contratar modelos comerciales, instalar alternativas de acceso abierto –con los riesgos que ello implica– o desarrollar un sistema propio no es trivial. Cada elección redefine presupuestos, protege o expone los datos y marca la autonomía tecnológica de la institución. La convivencia con la IA demanda, pues, un rediseño institucional, pero también una visión renovada de la misión académica.
En América Latina, la asimetría salta a la vista. Sin soberanía tecnológica, muchas universidades corren el riesgo de convertirse en consumidoras de plataformas diseñadas con otros sesgos y otras prioridades. Más aún, sin recursos adicionales, carecen de la capacidad técnica y organizativa para acceder a estas tecnologías, capacitar a sus docentes y diseñar los protocolos de integración que se requieren. Por eso se necesitan políticas audaces que cambien la ecuación: fondos públicos que subsidien la formación docente y alianzas entre instituciones que sumen capacidades para aprender de la experiencia compartida. De lo contrario, el gólem algorítmico replicará, y quizá pueda amplificar, las mismas brechas tecnológicas, educativas y económicas que la universidad aspira a cerrar.
Horizonte de Prometeo en México
En México, la disrupción de la inteligencia artificial dibuja un paisaje de contrastes. Algunas universidades marcan el paso con iniciativas pioneras. El Tecnológico de Monterrey, por ejemplo, ha desarrollado su propio modelo generativo –TECGPT– y un ecosistema de formación que lo acompaña, mientras que la UNAM ha creado grupos de trabajo para investigar el impacto de estas herramientas y guiar a su comunidad. Otras instituciones, como la Ibero y la Universidad Autónoma de Baja California, avanzan en la definición de lineamientos éticos y pedagógicos. En esta línea, El Colegio de México impulsa un modelo de innovación pedagógica desde la base, acompañando a profesores de ciencias sociales y humanidades en el diseño y evaluación de estrategias de enseñanza directamente en el aula. El objetivo es sistematizar esta experiencia para ofrecer recursos prácticos que puedan ser de utilidad para otras instituciones públicas con retos parecidos.
Estas iniciativas son, de momento, islas de innovación en un archipiélago fragmentado. Muchas universidades estatales y tecnológicas carecen de presupuesto e infraestructura para abordar los desafíos de la IA. Para evitar que esta brecha se profundice, es indispensable pasar de las reacciones aisladas a una estrategia nacional. El Observatorio de IA de la Asociación Nacional de Universidades e Instituciones de Educación Superior (ANUIES) busca articular esfuerzos, pero hace falta un compromiso de Estado que financie la capacitación a gran escala, fomente consorcios regionales de cómputo y proteja la soberanía tecnológica. Solo así la inteligencia artificial podrá cerrar, y no ampliar, las desigualdades educativas que ya lastran al país.
La inteligencia artificial generativa, más que una fuerza externa, actúa a la vez como un motor que amplía nuestras ambiciones y un espejo que revela –y acelera– viejas desigualdades. Igual que el fuego robado por Prometeo, esta criatura algorítmica ofrece un don ambiguo, colmado de promesas creativas entrelazadas con riesgos latentes. Ya no debatimos su llegada; habita entre nosotros. El asunto es cómo orientar su potencia y quién sujetará las riendas. El desafío exige la doble faena del arquitecto y del herrero: levantar la forja donde la chispa prometeica se transforme en servicio público y en fuerza de emancipación. Esa tarea colectiva, que involucra a cada campus, aula y grupo de investigación, necesita sin embargo un andamiaje mayor. Para que la criatura algorítmica no nos devore, se requieren políticas públicas, recursos y un liderazgo del Estado mexicano capaz de enlazar esfuerzos dispersos y garantizar el acceso con equidad. La oportunidad está, al menos en parte, en nuestras manos; el riesgo también. Solo entonces este fuego alumbrará un conocimiento más crítico, más plural y, ante todo, más justo. ~
Debora Weber-Wulff, Alla Anohina-Naumeca, Sonja Bjelobaba, Tomáš Foltýnek, Jean Guerrero-Dib, Olumide Popoola, Petr Šigut y Lorna Waddington, “Testing of detection tools for ai-generated text”, International Journal for Educational Integrity 19, núm. 26 (2023): 1-39.
↩︎
Michael D. Gordin, Scientific Babel: How science was done before and after global English, Chicago y Londres, University of Chicago Press, 2015. ↩︎
No hay comentarios:
Publicar un comentario