La Inteligencia Artificial en la formulación y personalización de políticas públicas: Entre la eficiencia, la equidad y el riesgo democrático
DOI :
https://doi.org/10.31207/colloquia.v12i1.197Mots-clés :
Inteligencia artificial, política pública, toma de decisiones algorítmica, gobernanza digitalRésumé
La incorporación de sistemas de inteligencia artificial (IA) en el ciclo de las políticas públicas está transformando de manera sustantiva la manera en que los Estados diagnostican problemas, diseñan intervenciones, asignan recursos y evalúan resultados. Este artículo examina críticamente cómo la IA reconfigura las relaciones entre eficiencia administrativa, equidad distributiva, transparencia institucional y legitimidad democrática, y propone un marco operativo para su adopción responsable en contextos públicos. Este análisis se sustenta en la pregunta ¿bajo qué condiciones los beneficios productos del uso de la IA justifican los riesgos que representan para la gobernanza democrática contemporánea? Para responder esta pregunta, esta investigación elabora un análisis conceptual y metodológico con base en cuatro pilares: eficiencia, equidad, transparencia y legitimidad. En cada uno de estos se empieza con una definición operativa, pasando por señales verificables que permiten evaluar su nivel de cumplimiento y, por último, definir los límites normativos que deberían trazar el camino de su aplicación. De igual manera, la investigación marca una diferencia entre personalización política y personalización administrativa, evidenciando que la personalización administrativa mejora la concentración y provisión de servicios. No obstante, también puede incrementar las desigualdades si es que existen sesgos en los datos o una baja supervisión humana. El artículo plantea una secuencia de gobernanza antes, durante y después de la implementación que enlaza evaluación de impacto algorítmico, dirección humana en puntos clave, auditoría externa periódica, trazabilidad, publicidad de fundamentos y mecanismos prácticos de apelación. Partiendo de casos internacionales de salud, protección social, educación, se identifican requisitos que autorizan y supuestos de veto para asegurar que la eficiencia no se priorice sobre la justicia social, la no discriminación y la correcta rendición de cuentas. Esta investigación culmina señalando que la IA puede ayudar a fortalecer la capacidad del estado, pero solo si su implementación se realiza en una arquitectura institucional que resguarde la participación ciudadana, el control democrático y la transparencia. La IA no sustituye el juicio humano ni el proceso deliberativo; lo complementa cuando existen salvaguardas claras, estándares verificables y una supervisión continúa orientada al bienestar público.
Références
Almada, M. (2021). Human oversight in automated decision-making: Principles and challenges. AI & Society, 36(4), 1257–1270. https://doi.org/10.1007/s00146-020-01077-3
Barocas, S., & Hardt, M. (2020). Fairness in machine learning. MIT Press.
Beckman, R., Müller, J., & Hansen, T. (2024). Democratic accountability in algorithmic governance. Governance, 37(1), 55–74. https://doi.org/10.1111/gove.12710
Burrell, J. (2016). How the machine ‘thinks’: Understanding opacity in machine learning algorithms. Big Data & Society, 3(1), 1–12. https://doi.org/10.1177/2053951715622512
Capraro, C., Hernández, L., & Paredes, M. (2024). Algorithmic personalization in Latin American public education. Education Policy Analysis Archives, 32(12), 221–240. https://doi.org/10.14507/epaa.32.2411
De la Briere, B., & Lindert, K. (2005). Reforming Brazil’s Bolsa Família Program (Social Protection Discussion Paper No. 0534). The World Bank. https://openknowledge.worldbank.org/handle/10986/13687
Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin’s Press.
Felzmann, H., Villaronga, E. F., Lutz, C., & Tamò-Larrieux, A. (2020). Transparency you can trust: Transparency requirements for artificial intelligence. Big Data & Society, 7(1). https://doi.org/10.1177/2053951720921115
Ferreira de Lima, G., & Veiga, A. (2025). AI-supported pedagogical systems in Latin America: Equity and performance implications. Journal of Learning Analytics, 12(1), 44–63. https://doi.org/10.18608/jla.2025.8123
Kaminski, M. E., & Malgieri, G. (2021). Algorithmic impact assessments under the GDPR. Computer Law & Security Review, 41, 105532. https://doi.org/10.1016/j.clsr.2021.105532
Kroll, J. (2020). Outlining traceability: A principle for accountability in machine learning systems. Harvard Journal of Law & Technology, 33(2), 403–454. https://doi.org/10.1145/3442188.3445937
Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2022). A survey on bias and fairness in machine learning. ACM Computing Surveys, 54(6), 1–35. https://doi.org/10.1145/3457607
Mitchell, M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B., Spitzer, E., Raji, I. D., & Gebru, T. (2019). Model cards for model reporting. Proceedings of the Conference on Fairness, Accountability, and Transparency, 220–229. https://doi.org/10.1145/3287560.3287596
Raji, I. D., Smart, A., White, R. N., Mitchell, M., Gebru, T., Hutchinson, B., Smith-Loud, J., Theron, D., & Barnes, P. (2020). Closing the AI accountability gap: Defining an end-to-end framework for internal algorithmic auditing. arXiv. https://doi.org/10.48550/arXiv.2001.00973
Shneiderman, B. (2022). Human-centered AI. Oxford University Press.
Yeung, K. (2018). Algorithmic regulation: A critical interrogation. Regulation & Governance, 12(4), 505–523. https://doi.org/10.1111/rego.12158
Zouridis, S., van Eck, M., & Bovens, M. (2020). Automated decision-making in the public sector: Between efficiency and democratic legitimacy. Information Polity, 25(3), 281–297. https://doi.org/10.3233/IP-200238
Téléchargements
Publié
Numéro
Rubrique
Licence

Cette œuvre est sous licence Creative Commons Attribution 4.0 International.
Authors publishing in our Journal comply to the following terms:
1. Authors keep their work's copyrights, but they guarantee Colloquia to be the first publisher of their papers. They grant the Journal with a Creative Commons Attribution License, under which their work can be shared with the condition that it is appropriately cited.
2. Authors can establish further clauses for non-exclusive distribution, such as publication on a separate book or placing in an institutional data-base. Nevertheless, a note should be always added to explain that the paper was originally published in Colloquia.
This Journal utilizes the LOCKSS system to create a file distributed among participating libraries, allowing these libraries to create permanent archives of the Journal for purposes of preservation and restoration. More information...