La Inteligencia Artificial en la formulación y personalización de políticas públicas: Entre la eficiencia, la equidad y el riesgo democrático

Auteurs-es

DOI :

https://doi.org/10.31207/colloquia.v12i1.197

Mots-clés :

Inteligencia artificial, política pública, toma de decisiones algorítmica, gobernanza digital

Résumé

La incorporación de sistemas de inteligencia artificial (IA) en el ciclo de las políticas públicas está transformando de manera sustantiva la manera en que los Estados diagnostican problemas, diseñan intervenciones, asignan recursos y evalúan resultados. Este artículo examina críticamente cómo la IA reconfigura las relaciones entre eficiencia administrativa, equidad distributiva, transparencia institucional y legitimidad democrática, y propone un marco operativo para su adopción responsable en contextos públicos. Este análisis se sustenta en la pregunta ¿bajo qué condiciones los beneficios productos del uso de la IA justifican los riesgos que representan para la gobernanza democrática contemporánea? Para responder esta pregunta, esta investigación elabora un análisis conceptual y metodológico con base en cuatro pilares: eficiencia, equidad, transparencia y legitimidad. En cada uno de estos se empieza con una definición operativa, pasando por señales verificables que permiten evaluar su nivel de cumplimiento y, por último, definir los límites normativos que deberían trazar el camino de su aplicación. De igual manera, la investigación marca una diferencia entre personalización política y personalización administrativa, evidenciando que la personalización administrativa mejora la concentración y provisión de servicios. No obstante, también puede incrementar las desigualdades si es que existen sesgos en los datos o una baja supervisión humana. El artículo plantea una secuencia de gobernanza antes, durante y después de la implementación que enlaza evaluación de impacto algorítmico, dirección humana en puntos clave, auditoría externa periódica, trazabilidad, publicidad de fundamentos y mecanismos prácticos de apelación. Partiendo de casos internacionales de salud, protección social, educación, se identifican requisitos que autorizan y supuestos de veto para asegurar que la eficiencia no se priorice sobre la justicia social, la no discriminación y la correcta rendición de cuentas. Esta investigación culmina señalando que la IA puede ayudar a fortalecer la capacidad del estado, pero solo si su implementación se realiza en una arquitectura institucional que resguarde la participación ciudadana, el control democrático y la transparencia. La IA no sustituye el juicio humano ni el proceso deliberativo; lo complementa cuando existen salvaguardas claras, estándares verificables y una supervisión continúa orientada al bienestar público.

Références

Almada, M. (2021). Human oversight in automated decision-making: Principles and challenges. AI & Society, 36(4), 1257–1270. https://doi.org/10.1007/s00146-020-01077-3

Barocas, S., & Hardt, M. (2020). Fairness in machine learning. MIT Press.

Beckman, R., Müller, J., & Hansen, T. (2024). Democratic accountability in algorithmic governance. Governance, 37(1), 55–74. https://doi.org/10.1111/gove.12710

Burrell, J. (2016). How the machine ‘thinks’: Understanding opacity in machine learning algorithms. Big Data & Society, 3(1), 1–12. https://doi.org/10.1177/2053951715622512

Capraro, C., Hernández, L., & Paredes, M. (2024). Algorithmic personalization in Latin American public education. Education Policy Analysis Archives, 32(12), 221–240. https://doi.org/10.14507/epaa.32.2411

De la Briere, B., & Lindert, K. (2005). Reforming Brazil’s Bolsa Família Program (Social Protection Discussion Paper No. 0534). The World Bank. https://openknowledge.worldbank.org/handle/10986/13687

Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. St. Martin’s Press.

Felzmann, H., Villaronga, E. F., Lutz, C., & Tamò-Larrieux, A. (2020). Transparency you can trust: Transparency requirements for artificial intelligence. Big Data & Society, 7(1). https://doi.org/10.1177/2053951720921115

Ferreira de Lima, G., & Veiga, A. (2025). AI-supported pedagogical systems in Latin America: Equity and performance implications. Journal of Learning Analytics, 12(1), 44–63. https://doi.org/10.18608/jla.2025.8123

Kaminski, M. E., & Malgieri, G. (2021). Algorithmic impact assessments under the GDPR. Computer Law & Security Review, 41, 105532. https://doi.org/10.1016/j.clsr.2021.105532

Kroll, J. (2020). Outlining traceability: A principle for accountability in machine learning systems. Harvard Journal of Law & Technology, 33(2), 403–454. https://doi.org/10.1145/3442188.3445937

Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2022). A survey on bias and fairness in machine learning. ACM Computing Surveys, 54(6), 1–35. https://doi.org/10.1145/3457607

Mitchell, M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B., Spitzer, E., Raji, I. D., & Gebru, T. (2019). Model cards for model reporting. Proceedings of the Conference on Fairness, Accountability, and Transparency, 220–229. https://doi.org/10.1145/3287560.3287596

Raji, I. D., Smart, A., White, R. N., Mitchell, M., Gebru, T., Hutchinson, B., Smith-Loud, J., Theron, D., & Barnes, P. (2020). Closing the AI accountability gap: Defining an end-to-end framework for internal algorithmic auditing. arXiv. https://doi.org/10.48550/arXiv.2001.00973

Shneiderman, B. (2022). Human-centered AI. Oxford University Press.

Yeung, K. (2018). Algorithmic regulation: A critical interrogation. Regulation & Governance, 12(4), 505–523. https://doi.org/10.1111/rego.12158

Zouridis, S., van Eck, M., & Bovens, M. (2020). Automated decision-making in the public sector: Between efficiency and democratic legitimacy. Information Polity, 25(3), 281–297. https://doi.org/10.3233/IP-200238

Téléchargements

Publié

2025-12-20