La descarga cognitiva y la remodelación del pensamiento humano: La sutil influencia de la inteligencia artificial
DOI:
https://doi.org/10.31207/colloquia.v12i1.185Palabras clave:
Inteligencia artificial, descarga cognitiva, memoria, pensamiento crítico, creatividad, sesgo de automatización, educación, éticaResumen
La integración de la inteligencia artificial (IA) en las tareas cognitivas diarias ha transformado la descarga cognitiva tradicional —la delegación de procesos mentales a herramientas externas— en una asociación dinámica con sistemas inteligentes. Este artículo examina el doble papel de la descarga cognitiva impulsada por IA, explorando su potencial para mejorar la eficiencia y la creatividad, al tiempo que plantea riesgos para la consolidación de la memoria, el pensamiento crítico y la autonomía intelectual. Basado en la teoría de la mente extendida y en estudios empíricos como el Efecto Google, el análisis revela cómo las capacidades generativas de la IA (por ejemplo, ChatGPT, Midjourney) desplazan la descarga cognitiva del almacenamiento pasivo hacia un pensamiento delegado, en el cual los usuarios adoptan las respuestas generadas por IA con una mínima revisión, fomentando el sesgo de automatización. En contextos educativos, las herramientas de IA corren el riesgo de socavar el aprendizaje profundo al reducir la práctica de recuperación y promover un compromiso superficial, como se ilustra en un estudio de caso de la Universidad Hatt, donde los ensayos asistidos por IA distorsionaron los sistemas de evaluación y erosionaron el análisis crítico de los estudiantes. De manera similar, en la atención sanitaria y las finanzas, la dependencia excesiva de las recomendaciones de IA puede comprometer el juicio profesional. Para mitigar estos riesgos, el artículo propone estrategias como la formación metacognitiva, el diseño de IA explicable y reformas curriculares que prioricen la interacción activa con las respuestas generadas por IA. Asimismo, se exhorta a implementar intervenciones éticas y de política pública para abordar la opacidad epistémica, la propiedad intelectual y la redefinición cultural de la autoría. El estudio subraya la necesidad de una integración equilibrada de la IA, que aproveche sus beneficios sin comprometer la autonomía cognitiva humana.
Referencias
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610–623. https://doi.org/10.1145/3442188.3445922
Carr, N. (2011). The shallows: What the Internet is doing to our brains. W. W. Norton & Company.
Clark, A., & Chalmers, D. (1998). The extended mind. Analysis, 58(1), 7–19. https://doi.org/10.1093/analys/58.1.7
Coeckelbergh, M. (2022). AI ethics. The MIT Press. https://doi.org/10.7551/mitpress/12549.001.0001
Doshi-Velez, F., & Kim, B. (2017). Towards a rigorous science of interpretable machine learning. arXiv. https://doi.org/10.48550/arXiv.1702.08608
Draganski, B., Gaser, C., Busch, V., Schuierer, G., Bogdahn, U., & May, A. (2004). Changes in grey matter induced by training. Nature, 427(6972), 311–312. https://doi.org/10.1038/427311a
Floridi, L., & Cowls, J. (2019). A unified framework of five principles for AI in society. Harvard Data Science Review, 1(1). https://doi.org/10.1162/99608f92.8cd550d1
Goddard, K., Roudsari, A., & Wyatt, J. C. (2012). Automation bias: A systematic review of frequency, effect mediators, and mitigators. Journal of the American Medical Informatics Association, 19(1), 121–127. https://doi.org/10.1136/amiajnl-2011-000089
Humphreys, P. (2009). The philosophical novelty of computer simulation. Synthese, 169(3), 615–626. https://doi.org/10.1007/s11229-008-9435-2
Jarrahi, M. H. (2018). Artificial intelligence and the future of work: Human–AI symbiosis in organizational decision making. Business Horizons, 61(4), 577–586. https://doi.org/10.1016/j.bushor.2018.03.007
Karpicke, J. D., & Roediger, H. L. (2008). The critical importance of retrieval for learning. Science, 319(5865), 966–968. https://doi.org/10.1126/science.1152408
Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm appreciation: People prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes, 151, 90–103. https://doi.org/10.1016/j.obhdp.2018.12.005
Risko, E. F., & Gilbert, S. J. (2016). Cognitive offloading. Trends in Cognitive Sciences, 20(9), 676–688. https://doi.org/10.1016/j.tics.2016.07.002
Selwyn, N., Nemorin, S., Bulfin, S., & Johnson, N. F. (2018). Everyday schooling in the digital age: High school, high tech? Routledge.
Sparrow, B., Liu, J., & Wegner, D. M. (2011). Google effects on memory: Cognitive consequences of having information at our fingertips. Science, 333(6043), 776–778. https://doi.org/10.1126/science.1207745
Sundar, S. S. (2020). Rise of machine agency: A framework for studying the psychology of human–AI interaction (HAII). Journal of Computer-Mediated Communication, 25(1), 74–88. https://doi.org/10.1093/jcmc/zmz026
Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.
Descargas
Publicado
Número
Sección
Licencia

Esta obra está bajo una licencia internacional Creative Commons Atribución 4.0.
1. Los autores mantienen los derechos de autor sobre su trabajo, pero garantizan que Colloquia será el primer editor en publicarlo. Entregarán a la revista una Licencia de Reconocimiento bajo la cual su trabajo podrá compartirse con la condición de ser debidamente citado.
2. Los autores pueden establecer cláusulas adicionales para la distribución no exclusiva, tales como la publicación en un libro o su colocación en una base de datos institucional. Sin embargo, siempre se añadirá una nota para explicar que el documento se publicó originalmente en Colloquia.
Esta revista utiliza el sistema LOCKSS & CLOCKSS para crear un archivo distribuido entre las bibliotecas participantes, permitiendo a dichas bibliotecas crear archivos permanentes de la revista con fines de preservación y restauración. Ampliar información...