La descarga cognitiva y la remodelación del pensamiento humano: La sutil influencia de la inteligencia artificial

Autores/as

DOI:

https://doi.org/10.31207/colloquia.v12i1.185

Palabras clave:

Inteligencia artificial, descarga cognitiva, memoria, pensamiento crítico, creatividad, sesgo de automatización, educación, ética

Resumen

La integración de la inteligencia artificial (IA) en las tareas cognitivas diarias ha transformado la descarga cognitiva tradicional —la delegación de procesos mentales a herramientas externas— en una asociación dinámica con sistemas inteligentes. Este artículo examina el doble papel de la descarga cognitiva impulsada por IA, explorando su potencial para mejorar la eficiencia y la creatividad, al tiempo que plantea riesgos para la consolidación de la memoria, el pensamiento crítico y la autonomía intelectual. Basado en la teoría de la mente extendida y en estudios empíricos como el Efecto Google, el análisis revela cómo las capacidades generativas de la IA (por ejemplo, ChatGPT, Midjourney) desplazan la descarga cognitiva del almacenamiento pasivo hacia un pensamiento delegado, en el cual los usuarios adoptan las respuestas generadas por IA con una mínima revisión, fomentando el sesgo de automatización. En contextos educativos, las herramientas de IA corren el riesgo de socavar el aprendizaje profundo al reducir la práctica de recuperación y promover un compromiso superficial, como se ilustra en un estudio de caso de la Universidad Hatt, donde los ensayos asistidos por IA distorsionaron los sistemas de evaluación y erosionaron el análisis crítico de los estudiantes. De manera similar, en la atención sanitaria y las finanzas, la dependencia excesiva de las recomendaciones de IA puede comprometer el juicio profesional. Para mitigar estos riesgos, el artículo propone estrategias como la formación metacognitiva, el diseño de IA explicable y reformas curriculares que prioricen la interacción activa con las respuestas generadas por IA. Asimismo, se exhorta a implementar intervenciones éticas y de política pública para abordar la opacidad epistémica, la propiedad intelectual y la redefinición cultural de la autoría. El estudio subraya la necesidad de una integración equilibrada de la IA, que aproveche sus beneficios sin comprometer la autonomía cognitiva humana.

Referencias

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610–623. https://doi.org/10.1145/3442188.3445922

Carr, N. (2011). The shallows: What the Internet is doing to our brains. W. W. Norton & Company.

Clark, A., & Chalmers, D. (1998). The extended mind. Analysis, 58(1), 7–19. https://doi.org/10.1093/analys/58.1.7

Coeckelbergh, M. (2022). AI ethics. The MIT Press. https://doi.org/10.7551/mitpress/12549.001.0001

Doshi-Velez, F., & Kim, B. (2017). Towards a rigorous science of interpretable machine learning. arXiv. https://doi.org/10.48550/arXiv.1702.08608

Draganski, B., Gaser, C., Busch, V., Schuierer, G., Bogdahn, U., & May, A. (2004). Changes in grey matter induced by training. Nature, 427(6972), 311–312. https://doi.org/10.1038/427311a

Floridi, L., & Cowls, J. (2019). A unified framework of five principles for AI in society. Harvard Data Science Review, 1(1). https://doi.org/10.1162/99608f92.8cd550d1

Goddard, K., Roudsari, A., & Wyatt, J. C. (2012). Automation bias: A systematic review of frequency, effect mediators, and mitigators. Journal of the American Medical Informatics Association, 19(1), 121–127. https://doi.org/10.1136/amiajnl-2011-000089

Humphreys, P. (2009). The philosophical novelty of computer simulation. Synthese, 169(3), 615–626. https://doi.org/10.1007/s11229-008-9435-2

Jarrahi, M. H. (2018). Artificial intelligence and the future of work: Human–AI symbiosis in organizational decision making. Business Horizons, 61(4), 577–586. https://doi.org/10.1016/j.bushor.2018.03.007

Karpicke, J. D., & Roediger, H. L. (2008). The critical importance of retrieval for learning. Science, 319(5865), 966–968. https://doi.org/10.1126/science.1152408

Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm appreciation: People prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes, 151, 90–103. https://doi.org/10.1016/j.obhdp.2018.12.005

Risko, E. F., & Gilbert, S. J. (2016). Cognitive offloading. Trends in Cognitive Sciences, 20(9), 676–688. https://doi.org/10.1016/j.tics.2016.07.002

Selwyn, N., Nemorin, S., Bulfin, S., & Johnson, N. F. (2018). Everyday schooling in the digital age: High school, high tech? Routledge.

Sparrow, B., Liu, J., & Wegner, D. M. (2011). Google effects on memory: Cognitive consequences of having information at our fingertips. Science, 333(6043), 776–778. https://doi.org/10.1126/science.1207745

Sundar, S. S. (2020). Rise of machine agency: A framework for studying the psychology of human–AI interaction (HAII). Journal of Computer-Mediated Communication, 25(1), 74–88. https://doi.org/10.1093/jcmc/zmz026

Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.

Descargas

Publicado

2025-12-20

Número

Sección

Dossier: Inteligencia Artificial: Convergencias, Desafíos y Transformaciones en el Mundo Contemporáneo