Este capítulo explica cómo la inteligencia artificial (IA) puede acelerar la transformación digital de la administración pública. Sitúa al gobierno como desarrollador y usuario de la IA, más allá de sus funciones tradicionales de inversor y regulador. El capítulo agrupa las oportunidades - productividad (eficiencia y efectividad), capacidad de respuesta y rendición de cuentas - a lo largo del ciclo de políticas, y destaca los requisitos previos en la gestión de datos e información. También describe los riesgos específicos en contextos gubernamentales, incluyendo los riesgos ante la inacción, dentro de los enfoques regulatorios emergentes, y concluye con una visión de una IA confiable en el sector público.
Gobernar con la inteligencia artificial
1. Cómo la inteligencia artificial está acelerando la transformación digital de la administración pública
Copiar enlace a 1. Cómo la inteligencia artificial está acelerando la transformación digital de la administración públicaResumen
Mensajes clave
Copiar enlace a Mensajes claveLa inteligencia artificial (IA) tiene el potencial de remodelar industrias, economías, gobiernos y sociedades. Sin embargo, su integración en el sector público ha sido limitada.
La IA puede ayudar a los gobiernos en tres áreas de oportunidad clave: productividad, capacidad de respuesta y rendición de cuentas.
En cada etapa del ciclo de formulación de políticas, la IA puede aportar beneficios altamente complementarios:
Automatizar tareas rutinarias y repetitivas
Mejorar la productividad en tareas analíticas o creativas
Adaptar los servicios para abordar necesidades personalizadas de la ciudadanía
Adaptar enfoques para fortalecer la función pública
Mejorar la toma de decisiones y la interpretación del presente
Mejorar los pronósticos del futuro
Mejorar la gestión y accesibilidad de la información
Detectar transacciones inadecuadas y evaluar riesgos para la integridad
Permitir a los actores no gubernamentales comprender y colaborar con la administración pública y promover la rendición de cuentas
Desbloquear oportunidades para partes interesadas externas, a través de la IA como un bien para todos
Estos beneficios no son mutuamente excluyentes y se pueden clasificar en cuatro grandes áreas: Procesos y servicios automatizados, optimizados y adaptados
Una mejor toma de decisiones, interpretación y pronósticos
Mejor rendición de cuentas y detección de anomalías
Desbloquear oportunidades para las partes interesadas externas
Los gobiernos deben gestionar los riesgos específicos de su uso, tales como: riesgos éticos, riesgos operativos, riesgos de exclusión, riesgos de resistencia pública y riesgos de inacción.
Está empezando a surgir una visión de futuro en la que las entidades gubernamentales desarrollan y adoptan con éxito una IA confiable para la transformación sistemática de los procesos y servicios públicos.
El proceso de transformación digital de la administración pública
Copiar enlace a El proceso de transformación digital de la administración públicaLa digitalización de la administración pública es esencial para transformar los procesos y servicios de formas que mejoren la capacidad de respuesta y la fiabilidad del sector público, y acerquen a las administraciones públicas a su ciudadanía. Desde la adopción de la Recomendación de la OCDE sobre Estrategias de Gobierno Digital (2014[1]), la OCDE ha promovido el gobierno digital en los países miembros y otros territorios, apoyándoles en sus esfuerzos por alcanzar la madurez digital del gobierno. Los gobiernos con madurez digital reconocen que la tecnología es un motor estratégico no solo para mejorar la eficiencia, sino también para que las políticas sean más e efectivas, y que los gobiernos son más abiertos, responsables, innovadores, participativos y fiables.
La pandemia de COVID-19 subrayó la importancia de las tecnologías y los datos digitales para generar resiliencia económica y social a través de enfoques gubernamentales estratégicos, ágiles e innovadores. Si bien la pandemia y la crisis multidimensional que ésta provocó trastornaron a las administraciones públicas, también brindaron la oportunidad de revisar enfoques estratégicos sobre el uso de herramientas y datos digitales, para mejorar la prestación de servicios públicos. Frente a la falta de alternativas, los gobiernos comprimieron años de avances tecnológicos en semanas y meses. La implementación de soluciones tecnológicas a escala les permitió continuar operando en tiempos de crisis y aseguró la prestación oportuna de servicios a la ciudadanía y empresas (OECD, 2020[2]; [3]). Cuando las tecnologías o los datos digitales no se utilizaron de manera estratégica o efectiva, la crisis destacó las deficiencias y agravó los desafíos, sobre los que los gobiernos están trabajando hasta la fecha.
Hoy en día, los gobiernos de todo el mundo enfrentan niveles decrecientes de confianza pública (OECD, 2024[4]), al mismo tiempo que experimenta cambios crecientes y rápidamente acelerados provocados por la era digital. En estos tiempos de disrupción acelerada - rápida evolución tecnológica, necesidades sociales cambiantes, crisis inesperadas - es crucial que sean capaces y estén equipados para utilizar las tecnologías digitales y los datos con el fin de aumentar la productividad y la resiliencia de sus administraciones públicas y mejorar la calidad de los servicios públicos.
Institucionalizando el Gobierno digital con diversos niveles de madurez
Para aprovechar el potencial del gobierno digital, es fundamental establecer mecanismos institucionales, de coordinación y de políticas, para sostener las transformaciones a largo plazo necesarias y superar las prioridades políticas cambiantes. El marco de políticas de gobierno digital de la OCDE (2020[3]) establece seis dimensiones críticas para establecer un Gobierno digital:
1. Digital por diseño: diseño de políticas que permitan al sector público utilizar herramientas y datos digitales de forma coherente a la hora de formular políticas o transformar servicios públicos.
2. Impulsado por datos: desarrollar la gobernanza y los habilitadores necesarios para el acceso, el intercambio y la reutilización de datos en el sector público.
3. Gobierno como plataforma: desplegar elementos básicos comunes, como directrices, herramientas, datos, identidad digital y programas informáticos, para avanzar en una transformación coherente de procesos y servicios públicos en todo el sector público.
4. Abierto por defecto: apertura más allá de la publicación de datos abiertos, incluidos los esfuerzos por fomentar el uso de tecnologías y datos para comunicarse y relacionarse con diferentes actores.
5. Orientado a los usuarios: situar las necesidades de los usuarios en el centro del diseño y la prestación de políticas y servicios públicos, mediante mecanismos de participación con los usuarios y la medición de parámetros para evaluar impacto y satisfacción.
6. Proactividad: anticipar las necesidades de usuarios y proveedores de servicios para prestar servicios públicos de forma proactiva.
El Índice de Gobierno Digital (DGI) de la OCDE analiza la madurez de los gobiernos en estas dimensiones (Gráfico 1.1). En este gráfico, es evidente que algunos países están más avanzados que otros en su camino hacia la madurez del Gobierno digital, y la amplia variedad de análisis de la OCDE sobre gobierno digital pone de manifiesto que cada país se enfrenta a sus propios desafíos al hacerlo1 .
Gráfico 1.1. Índice de gobierno digital de la OCDE 2023, resultados compuestos por país
Copiar enlace a Gráfico 1.1. Índice de gobierno digital de la OCDE 2023, resultados compuestos por país
Nota: no se incluyen los datos de Alemania, Grecia, Eslovaquia, Suiza y Estados Unidos (EEUU).
Fuente: (OECD, 2024[5]).
El creciente papel de la IA en el gobierno digital
La OCDE define un sistema de IA como:
"un sistema basado en máquinas que, para objetivos explícitos o implícitos, infiere, a partir de los datos de entrada que recibe, cómo generar datos de salida como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales." – Véase la Exposición de motivos de la OCDE para más aclaraciones (2024[6]; [7]).
Los debates mundiales sobre la IA se centran principalmente en los gobiernos como reguladores o inversores en esta materia, pero existen oportunidades significativas para actuar como desarrolladores y usuarios de IA. Los gobiernos no solo establecen prioridades nacionales, inversiones y regulaciones para la IA, sino que la utilizan cada vez más para diseñar e implementar políticas y servicios. Aunque la publicidad en torno a la IA ha aumentado en los últimos años, el sector público no es nuevo en el uso de la IA: hay miles de proyectos gubernamentales de IA en curso en todo el mundo 2.
Desde 2019, la OCDE trabaja para comprender mejor los usos e i implicaciones de la IA en el contexto específico del sector público. Esto incluye elaborar documentos fundacionales sobre los fundamentos técnicos de la IA y su uso e implicaciones por y para la administración pública (2019[8]; [9]); análisis focalizado en países específicos (2022[10]; 2024[11]; [12]); sacar a la luz las tendencias de innovación de la administración, que a menudo implican IA;3 y el establecimiento de un marco preliminar para la IA en el ámbito gubernamental (2024[13]). La OCDE también ha recopilado detalles sobre cientos de iniciativas públicas relacionadas con la IA4.
El DGI 2023 pone de relieve que, aunque algunos gobiernos han puesto en marcha una amplia gama de iniciativas para mejorar su capacidad de uso de IA, su implementación sigue planteando un desafío para la mayoría. En el momento de la publicación del DGI, el 70% de los países había utilizado la IA para mejorar procesos gubernamentales internos, mientras que solo el 33% había utilizado la IA para mejorar el diseño y la implementación de las políticas. Aunque su uso está aumentando, el uso de la IA en la administración pública todavía no ha tenido un impacto transformador. El próximo DGI 2025 incluirá cifras actualizadas y un análisis comparativo más detallado. También incorporará evidencias cualitativas complementarias para informar aún más sobre cómo los gobiernos pueden implementar habilitadores, salvaguardas, mitigación de riesgos y mecanismos de participación adecuados para adoptar una IA confiable mientras se monitorean los efectos adversos.
Entender el potencial transformador de la IA
Copiar enlace a Entender el potencial transformador de la IALa IA es una de las fuerzas más transformadoras del siglo XXI. Está transformando industrias, economías, gobiernos y sociedades a un ritmo sin precedentes. Si los gobiernos y otros actores de la IA logran aprovechar sus beneficios, mientras mitigan sus riesgos, los expertos e investigadores en IA prevén un futuro en el que la IA contribuya a los avances científicos y médicos, como lo son el descubrimiento de nuevos tratamientos contra el cáncer; el crecimiento de la productividad, que pasará de un aumento del 1-7% del producto interno bruto (PIB) mundial para 2033 a un aumento de 10 veces en las próximas décadas; a la eliminación de la pobreza y la reducción de la desigualdad; y a abordar los impactos relacionados con el clima y los desastres naturales (OECD, 2024[14]).
Si bien la IA ha recibido una intensa atención mundial en los últimos años, la investigación y el desarrollo de la IA se ha llevado a cabo durante más de 70 años. Antes de analizar a profundidad el uso de la IA en la administración pública, resulta útil comprender algunos de los antecedentes de la IA y por qué se ha convertido recientemente en un tema de debate en los hogares, como se analiza en el Recuadro 1.1.
Recuadro 1.1. La evolución de la IA
Copiar enlace a Recuadro 1.1. La evolución de la IAEl panorama de la IA ha evolucionado significativamente desde la década de 1950, cuando el matemático británico Alan Turing planteó por primera vez la cuestión de si las máquinas pueden pensar. Durante décadas, los sistemas de IA "basados en reglas" o "simbólicos" dominaron la investigación, utilizando una serie de afirmaciones de "Si-entonces" (Si una condición, entonces una acción) que, cuando se toman en conjunto, darían la apariencia de una acción inteligente. Estos sistemas son limitados y requieren un conocimiento humano significativo para programar las reglas. Todavía se usan hoy en día, como en los robots de software de automatización robótica de procesos (RPA por sus siglas en inglés) que automatizan tareas programadas por humanos. Debido a sus limitaciones, algunos sostienen que los sistemas basados en reglas y la RPA no deberían considerarse IA en absoluto.
El siglo XXI vio grandes avances en la rama de la IA llamada Aprendizaje Automático (ML por sus siglas en inglés) que mejoró la capacidad de las máquinas para hacer predicciones a partir de datos históricos. El aprendizaje automático se centra en el desarrollo de sistemas que puedan aprender y adaptarse sin seguir instrucciones explícitas, que imiten la forma en que los humanos aprenden, mejorando gradualmente su precisión, utilizando algoritmos y modelos estadísticos para analizar y extraer inferencias de los patrones de los datos. El proceso de "aprendizaje" mediante técnicas de aprendizaje automático se conoce como "entrenamiento".
La aplicación de técnicas de ML, la disponibilidad de grandes conjuntos de datos y un hardware informático más rápido y potente han convergido, aumentando drásticamente las capacidades, el impacto y la disponibilidad de modelos y sistemas de IA. Inspiradas en el cerebro humano, las redes neuronales están formadas por capas de "neuronas", conocidas como "nodos", que procesan entradas con pesos y sesgos para dar salidas específicas. Un subconjunto de algoritmos en el área de las redes neuronales, llamadas redes neuronales profundas (en el campo de estudio y conjunto de técnicas llamadas aprendizaje profundo), permite a los sistemas basados en máquinas "aprender" de los ejemplos para hacer predicciones de "inferencias" basadas en una gran cantidad de datos procesados durante su fase de entrenamiento. Debido a su complejidad, puede resultar difícil entender cómo funcionan o producen un determinado resultado.
Avances conceptuales recientes
En 2017, los investigadores de Google introdujeron un tipo de arquitectura de red neuronal llamada "transformadores", que aprenden a detectar cómo los elementos de datos, como las palabras de esta oración, influyen y dependen unos de otros. A diferencia de las redes neuronales anteriores, los transformadores pueden procesar entradas de una secuencia, como palabras de texto, en paralelo. Esto generó un gran progreso al permitir a los desarrolladores de IA diseñar modelos de lenguaje a mayor escala con más parámetros y mayor eficiencia. Esto contribuyó en gran medida a los avances de la IA generativa (comúnmente llamada GenAI en inglés), incluidos los modelos extensos de lenguaje (LLM por sus siglas en inglés), que pueden generar contenido novedoso y permitir aplicaciones orientadas al consumidor como chatbots avanzados al alcance de la mano.
Para muchos, la IA se volvió "real" en 2022, el año en que ChatGPT (transformador generativo preentrenado para chat) de OpenAI se convirtió en la aplicación de consumo de más rápido crecimiento en la historia. Los transformadores también contribuyeron a la aparición de modelos fundacionales, que se entrenan en grandes cantidades de datos que se pueden adaptar (es decir, ajustar) y desarrollar para realizar una amplia gama de tareas posteriores. Aunque a menudo se discuten los transformadores, existen otros enfoques, especialmente para la generación de no texto (por ejemplo, imágenes, video, audio), como las redes generativas adversariales (GANs) y modelos de difusión.
La mayor parte de la IA actual es "estrecha", pero algunos sostienen que están surgiendo formas más "generales" de IA
La mayoría de la IA actual puede considerarse "estrecha" (diseñada para realizar una tarea específica), pero algunos expertos sostienen que los modelos de base son una forma temprana de IA más "general". Esto incluye el progreso hacia el hipotético advenimiento de la inteligencia artificial general (IAG), un concepto controvertido que puede describirse como máquinas con nivel humano o mayor inteligencia en un amplio espectro de contextos. Existe un debate sustancial e incertidumbre entre los expertos sobre cuándo o si se pudiera desarrollar la IAG, y qué oportunidades y desafíos potenciales puede brindar.
Si bien algunos expertos creen que la IA se desarrollará en algún momento, las primeras formas emergentes de sistemas de IA "con agentes", que pueden operar de manera un tanto autónoma sin la necesidad constante de orientación humana, apuntan al potencial de sistemas futuros que pueden manejar tareas más generales con una mínima contribución humana. Por ejemplo, los "agentes" basados en LLM ya se han desarrollado para buscar de forma autónoma en Internet e interpretar lo que encuentran en nombre del usuario. Estos sistemas se implantan en una etapa muy temprana, y comprenden muchas limitaciones y riesgos, pero los avances posteriores pueden generar oportunidades para todos los sectores.
A medida que los sistemas de IA se vuelven cada vez más capaces, muchos sostienen que los humanos no deberían diferir las decisiones a las máquinas, sino más bien trabajar en tándem, o en colaboración máquina-humano, utilizando la IA para ayudar en la toma de decisiones.
Nota: El documento de la OCDE Hello World: Artificial intelligence and its use in the public sector (Berryhill et al., 2019[15]) detalla los fundamentos técnicos y las posibles implicaciones de la IA.
Fuente: (OECD, 2024[16]), (OECD, 2024[17]), (OECD.AI, 2023[18]), (Lorenz, Perset and Berryhill, 2023[19]), (Berryhill et al., 2019[15]) (Cognitus, 2024[20]), (Purdy, 2024[21]), (NIST, 2025[22]), (Horvitz, 2014[23]), (Brizuela et al., 2025[24]),https://playbooks.aip.gov.sg/agentic-ai-primer.
A pesar de la publicidad, el progreso de la IA es limitado
Los datos del Observatorio de Políticas de IA de la OCDE muestran el auge del interés por la IA en los últimos años. Por ejemplo, el Gráfico 1.2 muestra un crecimiento significativo de las inversiones de capital de riesgo en IA a lo largo del tiempo. Si bien el interés es alto, un último estudio de la firma consultora Gartner, coloca a la IA generativa justo más allá de su "máximo de expectativas infladas", e inicia un descenso hacia la "depresión de la desilusión", "a medida que el enfoque empresarial continúa cambiando de entusiasmo en torno a los modelos de cimientos para usar casos que impulsan el RSI" (Gartner, 2024[25]). Aun así, espera que la IA generativa y algunas otras aplicaciones, como la supercomputación basada en IA y su uso para respaldar y hacer cumplir políticas de gobernanza, confianza, riesgo y seguridad de esta tecnología, alcancen una productividad más plena en tan solo dos o cinco años.
Gráfico 1.2. Las inversiones de capital de riesgo en IA han aumentado con el paso de los años
Copiar enlace a Gráfico 1.2. Las inversiones de capital de riesgo en IA han aumentado con el paso de los añosInversión de capital global de riesgo en IA en millones de USD por país a partir de 2012
Nota: Puede encontrarse una nota metodológica con más información en https://oecd.ai/p/methodology. El aumento de las inversiones en 2021 se debió en parte a un aumento de las inversiones en "atención sanitaria, medicamentos y biotecnología" con IA durante la pandemia de COVID-19. También se observó un repunte significativo ese año en el ámbito de la "Movilidad y vehículos autónomos".
Fuente: OECD.AI (2025), visualizaciones impulsadas por JSI con datos de Preqin, última actualización del 3 de junio de 2025, consultado el 16 de junio de 2025, www.oecd.ai.
Aunque algunos expertos en IA predicen importantes beneficios económicos gracias a la IA, los estudios de la OCDE (2024[26]) indican un aumento más discreto, estimando que el crecimiento anual de la productividad debido a la IA oscilará entre 0,25 y 0,6 puntos porcentuales en los próximos 10 años en los países más preparados para la IA. La investigación muestra que la IA mejora la productividad individual de los trabajadores (OECD, 2023[27]; Bengio et al., 2025[28]). Sin embargo, la evidencia que lo vincula con los beneficios organizacionales y económicos más amplios es débil. Esto se debe, en parte, a que la IA todavía no puede llevar a cabo algunas tareas y no todas las organizaciones o trabajadores están dispuestos a adoptarla. Algunas evidencias sugieren que las empresas que adoptan IA son más productivas y crecen más rápido que las que no lo hacen (Calvino and Fontanelli, 2023[29]; Hampole et al., 2025[30]). Sin embargo, esto no debe interpretarse como causalidad. Por ahora, las limitaciones persisten. Según las estadísticas de la Oficina del Censo de Estados Unidos, solo el 5-6% de las empresas estadounidenses utilizan IA para producir bienes y servicios, y solo el 7% planea adoptar IA en los próximos meses (Williams, 2025[31]). En una encuesta más global, se estima que solo un 26% de las empresas tienen las capacidades necesarias para obtener valor real de la IA, y solo un 4% han logrado generar un valor significativo (BCG, 2024[32])5 .
Más allá de los beneficios económicos, el potencial transformador de la IA para lograr resultados sociales positivos está empezando a mostrar signos prometedores. Sin embargo, todavía no se ha logrado su pleno impacto. Por ejemplo, la IA en la ciencia ha contribuido a un progreso real en robótica, fusión nuclear, descubrimiento de fármacos, generación de anticuerpos y plegamiento de proteínas (OECD, 2023[33]). A pesar de estos primeros éxitos, muchos usos siguen siendo localizados o experimentales, y el cambio sistémico a escala global todavía está por llegar. La contribución de la IA a la ciencia apenas está comenzando, y en algunas áreas, la tecnología puede haber logrado menos de lo previsto. Por ejemplo, algunos descubrieron que la IA contribuyó poco a la investigación durante la pandemia de COVID-19 (OECD, 2023[33]). Hasta ahora, la IA ha contribuido en gran medida a avances en un conjunto limitado de ciencias naturales y físicas. Transformaciones similares en otras disciplinas, como las ciencias sociales, han progresado menos a pesar de las grandes expectativas (Manning, Zhu and Horton, 2024[34]). Por lo tanto, aunque están surgiendo beneficios sociales de la IA, todavía se está desarrollando todo su potencial transformador.
Uso de IA en la administración pública, un contexto único
Copiar enlace a Uso de IA en la administración pública, un contexto únicoAdemás de regular la IA para la sociedad, estableciendo las condiciones y normativas para su uso confiable, los gobiernos se están esforzando por integrar la tecnología para gobernar mejor con IA. Al igual que en el sector privado, el uso de la IA en el sector público promete enormes beneficios, al tiempo que plantea una serie de riesgos y desafíos. Una encuesta de Deloitte (2024[35]), realizada a 2.770 altos ejecutivos de 14 países, concluyó que los líderes del sector público eran dos veces más propensos que los líderes del sector privado a prever una transformación impulsada por IA en sus organizaciones a corto plazo, pero se mostraban más cautelosos y menos optimistas sobre el hecho de que ello se tradujera en un aumento de la productividad. No obstante, su interés apenas ha comenzado a ocupar un lugar central en la literatura sobre gestión pública y en muchos gobiernos (Mergel et al., 2023[36]; Mellouli, Janssen and Ojo, 2024[37]). Esto se debe a una combinación de factores, entre los que se incluyen los recientes avances tecnológicos que han dado lugar a aplicaciones de IA más prácticas y efectivas para el uso gubernamental (véase el Recuadro 1.1); el acceso de los gobiernos a una gran cantidad de datos que pueden utilizarse como insumos para los sistemas de IA; y las presiones fiscales en curso que hacen que la IA resulte atractiva como forma de racionalizar operaciones y reducir costos.
Aunque los esfuerzos del sector pueden aportar algunas lecciones aprendidas y factores de éxito (Santos et al., 2024[38]), el propósito y contexto dentro del sector público son únicos y presentan una serie de oportunidades y desafíos específicos. Además, el ámbito de la IA es complejo, avanza rápidamente y presenta una pronunciada curva de aprendizaje para servidores públicos y responsables de la formulación de políticas. Sin embargo, si tiene éxito, la aplicación de IA en la administración pública promete tener un impacto significativo en la economía y la sociedad en general al mejorar la calidad y los resultados de servicios públicos, políticas y operaciones gubernamentales (Berglind, Fadia and Isherwood, 2022[39]).
Los gobiernos tienen una enorme influencia e impacto en la vida de las personas, trayendo consigo un deber de cuidado del bien público, que va más allá del de las empresas (OECD, 2023[40]; Santiso, 2023[41]). Por lo tanto, tienen la responsabilidad especial de implementar la IA de forma que se minimice el daño y se priorice el bienestar de las personas y las comunidades. Esto es especialmente cierto cuando se despliega la IA en ámbitos políticos sensibles como la aplicación de la ley, el control migratorio, las prestaciones sociales y la prevención del fraude (OECD, 2024[13]).
Las administraciones públicas también operan con un mandato único: sirven al interés público y se financian con recursos públicos. Como tales, sus acciones, en particular las que involucran datos y tecnologías digitales, deben guiarse por principios que defiendan los valores democráticos, los derechos individuales y el estado de derecho. A diferencia de las entidades privadas, que pueden priorizar la eficiencia o el beneficio, se espera que los gobiernos actúen de manera transparente y con la debida consideración por el bien público en mayor medida que las empresas.
Áreas de oportunidad clave y beneficios de la IA en la administración pública
Copiar enlace a Áreas de oportunidad clave y beneficios de la IA en la administración públicaEntre las oportunidades para los gobiernos, en su calidad de desarrolladores y usuarios de IA, se incluyen la posibilidad de transformar la prestación de servicios, la formulación de políticas, las operaciones internas y la supervisión. Este es un momento crucial para los gobiernos de todo el mundo. Al lidiar con los rápidos avances de las tecnologías de IA, están tratando de aprovechar las oportunidades que brinda esta para innovar y modernizar la administración pública, al tiempo que gestiona y mitiga los riesgos asociados, que se exponen a continuación, y los desafíos en materia de implementación, los cuales se exponen en el Capítulo 3.
Incorporar IA en la administración pública abre nuevas posibilidades. A través de años de investigación sobre el tema y trabajando con gobiernos de todo el mundo, la OCDE (2024[13]) ha identificado tres áreas de oportunidad concretas para el uso gubernamental de la IA:
Productividad con operaciones internas más eficientes y un diseño de políticas, toma de decisiones y prestación de servicios más efectivos. Por ejemplo, el uso de sistemas de IA predictiva para una planificación más efectiva de políticas, la automatización de procesos para acelerar la prestación de servicios y el impulso del desempeño al permitir que los funcionarios se centren menos en tareas rutinarias y más en actividades de misión crítica.
Capacidad de respuesta de las políticas y los servicios públicos mediante la mejora del diseño y los enfoques de prestación de servicios que satisfacen mejor las necesidades cambiantes de la ciudadanía y las comunidades específicas, y mediante la mejora de los mecanismos de participación cívica. Esto incluye ofrecer servicios públicos más personalizados y de forma más proactiva.
Rendición de cuentas mediante el aumento de la capacidad de supervisión y transparencia, por ejemplo, mediante la supervisión en tiempo real. Este cambio puede impulsar la satisfacción pública general y mejorar la percepción de que la administración pública es competente, justa y receptiva, fortaleciendo así la confianza pública en su capacidad de innovación y transformación.
La Tabla 1.1 muestra cómo diversas tareas de IA pueden contribuir a las actividades de la administración públicas, apoyando así estas áreas de oportunidad.
Tabla 1.1. Entender el uso de la IA en la administración pública
Copiar enlace a Tabla 1.1. Entender el uso de la IA en la administración pública|
Tareas de IA |
Actividad gubernamental |
Área de oportunidad |
|
- Reconocimiento - Detección de eventos - Predicción - Personalización - Apoyo a la interacción - Optimización orientada a objetivos - Generación de contenido - Razonar con estructuras de conocimiento |
Operaciones internas |
Productividad (eficiencia y efectividad) |
|
Formulación de políticas |
||
|
Reactividad |
||
|
Prestación de servicios |
||
|
Rendición de cuentas |
||
|
Supervisión interna y externa |
Nota: La columna de tareas de IA se ha adaptado a partir de las "Tareas relacionadas con los sistemas de IA" del Marco de la OCDE para la Clasificación de los Sistemas de IA (2022[42]).
Fuente: (OECD, 2024[13]).
Principales beneficios de la IA en la administración pública
Para orientar las decisiones de inversión, es crucial que los servidores públicos, especialmente los que toman decisiones en puestos de liderazgo, comprendan los beneficios que puede ofrecer la IA. Un estudio de la Comisión Europea (CE) (2024[43]), que encuestó a 576 gerentes públicos en siete países, encontró que los beneficios percibidos de la IA influyen significativamente en su adopción. La IA tiene potencial para mejorar la toma de decisiones en diversas etapas del ciclo de formulación de políticas (Gráfico 1.3)6. En las secciones siguientes se describen las principales ventajas de utilizar IA en la administración. Estos beneficios no son mutuamente excluyentes y, de hecho, se complementan en gran medida con cierto solapamiento en cuatro conceptos: procesos y servicios automatizados, racionalizados y adaptados; mejor toma de decisiones, interpretación y pronósticos; mayor rendición de cuentas y detección de anomalías; y oportunidades para las partes interesadas externas a través de la IA como un bien para todos. Sin embargo, es importante señalar que el uso de la IA en la administración pública también puede plantear riesgos. Varios de estos riesgos pueden ser la contrapartida de los posibles beneficios o socavarlos. En la siguiente sección se ofrece un análisis específico de los riesgos.
Gráfico 1.3. IA en cada fase del ciclo de formulación de políticas
Copiar enlace a Gráfico 1.3. IA en cada fase del ciclo de formulación de políticas
Fuente: (Pencheva, Esteve and Mikhaylov, 2018[44]), adaptado a la terminología de la OCDE que figura a continuación.
Procesos y servicios automatizados, racionalizados y adaptados
La automatización basada en IA puede ayudar a automatizar directamente los procesos y servicios existentes, o contribuir a una reformulación completa de la forma en que los gobiernos trabajan, tanto en operaciones internas como en servicios públicos. Al aprovechar sus vastos activos de datos, los gobiernos también pueden usar la IA para desarrollar servicios personalizados específicamente diseñados para individuos y grupos específicos. Estos beneficios no solo hacen que la administración pública sea más eficiente, efectiva y receptiva, sino que también pueden mejorar la calidad del empleo y el bienestar de los servidores públicos al permitirles dedicar más tiempo a trabajos más valiosos y significativos. Se ha demostrado que esto mejora el bienestar de los trabajadores. Casi dos tercios de los trabajadores encuestados por la OCDE (2023[27]) afirmaron que la IA había mejorado su satisfacción en el trabajo, y algunos estudios muestran que esto puede mejorar el bienestar de los trabajadores (Brougham and Haar, 2017[45]; Xu, Xue and Zhao, 2023[46]). Sin embargo, como se analiza más adelante, algunos usos de la IA pueden reducir la calidad del empleo y, potencialmente, provocar el desplazamiento de la fuerza laboral de la función pública.
Automatización de tareas rutinarias y repetitivas
Los gobiernos pueden utilizar IA para mejorar la eficiencia de sus operaciones internas y sus actividades de prestación de servicios, reduciendo el tiempo que los funcionarios públicos dedican a tareas monótonas (OECD, 2024[13]). Por lo general, estas operaciones internas son repetitivas y no requieren un razonamiento analítico extenso ni el uso del criterio humano. Mediante la automatización de estas tareas, la IA puede agilizar flujos de trabajo, reducir errores, optimizar la asignación de recursos y liberar recursos humanos para actividades más complejas que requieren un mayor uso del criterio humano. En última instancia, esto redunda en una prestación más eficiente de servicios públicos de mayor calidad (OECD/UNESCO, 2024[12]).
Tareas repetitivas y que consumen mucho tiempo incluyen:
Introducción de datos: introducción manual de datos en diversos sistemas y bases de datos.
Procesamiento de nóminas: cálculo y procesamiento de salarios y prestaciones de los empleados.
Consultas básicas de clientes: atender consultas rutinarias y proporcionar información al público.
Verificación de información: comprobación y verificación de la autenticidad de documentos.
Procesamiento de formularios: manejo y procesamiento de varios formularios de solicitud.
Correo electrónico y correspondencia: clasificar, responder y gestionar correos electrónicos y la correspondencia oficial.
Los gobiernos pueden utilizar diversos sistemas de IA para este tipo de tareas, desde sistemas simplistas basados en reglas hasta sistemas de aprendizaje automático más avanzados, como los asistentes conversacionales habilitados para LLM. Estos sistemas cuentan con amplias capacidades que van desde la gestión de consultas simples y rutinarias (tanto con la ciudadanía como con los servidores públicos) hasta la generación de contenido totalmente nuevo y personalizado y la optimización de la asignación de recursos (Lorenz, Perset and Berryhill, 2023[19]; Sapci and Sapci, 2019[47]).
Por ejemplo, Argentina está automatizando las tareas repetitivas y agilizando la tramitación de casos en la administración de justicia a través de su sistema Prometea, basado en la IA (véase el Capítulo 5, Recuadro 5.62). Sin embargo, como se analiza más adelante, la automatización basada en IA puede plantear riesgos —en ámbitos como la administración de justicia— que los gobiernos deben tener en cuenta. En el caso de Prometea, por ejemplo, Argentina trata de limitar estos riesgos mediante el control humano de cómo se utilizan los sistemas de IA y sus resultados (Corvalán and Le Fevre Cervini, 2020[48]).
Mejorar la productividad en tareas analíticas o creativas
La IA contribuye además a la productividad mediante el descubrimiento de nuevas ideas y nuevos medios eficientes y efectivos para llevar a cabo el trabajo (Jones, 2022[49]). Uno de los beneficios más notables de la IA es su capacidad para ayudar a las oficinas gubernamentales a gestionar el análisis y la síntesis de documentación extensa (OECD/UNESCO, 2024[12]). Mientras una variedad de herramientas basadas en IA puede ser útil, los LLM en particular pueden servir como asistentes de gran alcance para los funcionarios gubernamentales en este sentido, ayudando en tareas como investigación, síntesis y resumen de contenidos (Berglind, Fadia and Isherwood, 2022[39]). La investigación llevada a cabo con profesionales del conocimiento del sector privado demostró que el uso de la IA puede mejorar el rendimiento de personas y equipos, y también romper los silos funcionales (Dell’Acqua et al., 2025[50]). Los gobiernos pueden utilizar la IA para reducir la carga de trabajo de los servidores públicos y mejorar el acceso a la información tanto para la ciudadanía como para los servidores públicos.
Algunos usos relevantes incluyen:
Procesamiento y clasificación de la información textual: las herramientas de IA pueden analizar de forma rápida y precisa textos extensos y documentos no estructurados, destacando puntos clave y resumiendo la información. Esto mejora la eficiencia en los departamentos que tratan con grandes cantidades de información, como asuntos jurídicos y procesos administrativos (OECD/UNESCO, 2024[12]). En consecuencia, se aceleran los flujos de trabajo y se reduce el riesgo de errores humanos, lo que da lugar a resultados más precisos y fiables en operaciones internas y en actividades de prestación de servicios.
Redacción de documentos y textos jurídicos: Los sistemas de IA pueden elaborar borradores preliminares de diversos tipos de documentos utilizando plantillas y la legislación existente. Este proceso ayuda a garantizar el cumplimiento de las normas, mientras ahorra tiempo y recursos. Además, la IA puede hacer referencia cruzada a nuevos borradores con la legislación vigente, identificando posibles conflictos y minimizando errores humanos. Para la redacción de informes, las herramientas de IA pueden ofrecer sugerencias automáticas de estructuras más claras y concisas. Además, puede mejorar la comunicación de informes extensos resumiéndolos en formatos más breves para su difusión a los responsables de la toma de decisiones o al público.
Dar sentido a entradas no estructuradas: la IA puede analizar y sintetizar grandes cantidades de información de procesos participativos, como lo son los comentarios de servicios públicos y consultas, convirtiéndolos en recomendaciones viables. Puede identificar temas recurrentes, agrupar opiniones, detectar valores atípicos, realizar análisis de sentimientos y clasificar opciones de política en función de las preferencias. Este uso puede ayudar a identificar problemas emergentes, a tener mejor en cuenta las preocupaciones de las partes interesadas y a abordar posibles impactos de las políticas.
Estudios muestran que los sistemas de IA generativa reducen el tiempo que las personas dedican a realizar tareas y mejoran la calidad de los resultados. También muestran que estas herramientas tienen un mayor impacto en la productividad de los trabajadores menos calificados, como los empleados subalternos, lo que les permite ponerse al día con sus colegas más antiguos (Noy and Zhang, 2023[51]; Peng et al., 2023[52]). Esto puede producir un efecto de coordinación e igualación, e impulsar el aumento de la productividad al ayudar a los trabajadores a realizar muchas de las tareas que normalmente realizan los expertos en la materia (OECD, 2023[27]). Sin embargo, algunas investigaciones también indican que la IA podría contribuir a aumentar las divisiones entre los trabajadores con mayor y menor nivel de calificación, y que, aunque los sistemas de IA existentes pueden aumentar la productividad de los trabajadores, todavía no pueden realizar muchas tareas que los humanos sí pueden (The Economist, 2025[53]; Dell’Acqua et al., 2023[54]; Bengio et al., 2025[28]). Se necesita más investigación sobre este tema, incluidas las ventajas específicas de la IA y los posibles inconvenientes para los servidores públicos.
A modo de ejemplo, la autoridad tributaria del Reino Unido está utilizando la IA para redactar las descripciones de los puestos de trabajo y para analizar y evaluar las calificaciones de las solicitudes de empleo, con el fin de acelerar la contratación (Recuadro 5.20). Como se analiza más adelante, el uso de la IA puede plantear riesgos si no se hace de manera confiable.
La IA también puede actuar como catalizador de la creatividad y la innovación entre los servidores públicos, así como de la forma en que diseñan e implementan los procesos internos y las políticas y servicios públicos. La IA generativa, por ejemplo, puede respaldar la exploración de alternativas de política, simulaciones de escenarios, redacción de textos legislativos y creación de prototipos de servicios, fomentando una administración pública más imaginativa y experimental. Por ejemplo, el Servicio de Comunicación del Gobierno del Reino Unido está desarrollando una herramienta conversacional impulsada por IA para generar borradores de textos, planes e ideas estratégicas, integrando directrices de comunicación e información sobre la audiencia para garantizar resultados de alta calidad y conformes (Recuadro 5.39). Diseñado como un asistente colaborativo, impulsa la creatividad, reduce la carga de trabajo rutinaria y se está implementando gradualmente después de una prueba piloto exitosa y un refinamiento iterativo impulsado por IA.
Adaptación de servicios a las necesidades personalizadas de la ciudadanía
La IA puede ayudar a los gobiernos a comprender mejor las necesidades y comportamientos de las personas y facilitar la entrega de información y servicios específicos y personalizados a nivel individual (Huang and Rust, 2021[55]; Flavián and Casaló, 2021[56]; OECD, 2020[3]). Esto puede incluir el desarrollo de perfiles de ciudadanos individualizados, la generación y entrega de información personalizada y la configuración de ofertas de servicios en función de necesidades únicas (UN, 2022[57]). Al mejorar la capacidad de respuesta, estos esfuerzos pueden hacer que los servicios sean más eficientes, efectivos y centrados en la ciudadanía, lo que se traduce en una mayor satisfacción, mejores resultados y un enfoque más ágil y proactivo para satisfacer las necesidades públicas.
Esto permite una mejor respuesta a las necesidades de subgrupos de usuarios, incluidos los grupos vulnerables y desfavorecidos, que pueden tener necesidades específicas y dependientes del contexto (Giest, 2017[58]). El uso de herramientas de IA para la personalización se ha ampliado a varios sectores de la función pública, a menudo asociados a la prestación de servicios basados en eventos vitales, como los servicios ofrecidos de forma proactiva para el nacimiento de un hijo, las nuevas actividades educativas o el matrimonio (Kopponen et al., 2024[59]).
Los gobiernos también pueden aprovechar la capacidad de la IA para analizar grandes conjuntos de datos sobre el comportamiento con el fin de comprender mejor la heterogeneidad individual e incorporar factores cognitivos y contextuales, como el momento, la ubicación y las preferencias personales, en el diseño de servicios. Esto permite intervenciones de servicio más adaptables y equitativas que se ajustan a las circunstancias únicas de la ciudadanía, salvaguardando al mismo tiempo la autonomía y toma de decisiones informadas (Mills, Costa and Sunstein, 2023[60]).
Además de mejorar los propios servicios, la IA puede ayudar a optimizar las comunicaciones sobre la disponibilidad y, por tanto, la adopción de servicios. Utilizando los datos administrativos existentes, la IA puede simplificar los procesos al precompletar (o eliminar) formularios con información conocida y adaptar las preguntas a las personas, reduciendo así el tiempo y el esfuerzo necesarios para llevar a cabo las tareas burocráticas. Esto ya se está haciendo de manera limitada con datos administrativos y algoritmos programados (humanos) en el área de programas sociales (OECD, 2024[61]). Este enfoque específico puede ayudar a garantizar que la ciudadanía reciba la información que necesita de manera eficiente y que las interacciones con los servicios públicos sean ágiles y fáciles de usar.
Ejemplos de este beneficio en acción incluyen una amplia variedad de asistentes virtuales que pueden responder a consultas únicas de la ciudadanía con información adaptada. Por ejemplo, la autoridad tributaria de Singapur ofrece un chatbot orientado al público que puede proporcionar información y servicios adaptados a las necesidades individuales (Recuadro 5.4). Otro ejemplo es el de los sistemas de protección social que utilizan la IA para una divulgación proactiva con el fin de promover la aceptación de los servicios entre quienes exigen calidad (Recuadro 5.49).
Sin embargo, es importante señalar que estos servicios suelen requerir una gran cantidad de recopilación y análisis de datos para determinar las características y necesidades individuales. Los gobiernos deben llevar a cabo dichas recopilaciones de datos y utilizar la IA de forma confiable. De lo contrario, como se analiza más adelante, estos esfuerzos corren el riesgo de infringir el libre ejercicio de los derechos humanos, por ejemplo, mediante violaciones de la privacidad.
Adaptación de enfoques para fortalecer la función pública
La IA también puede fortalecer la función pública mediante procesos de contratación más efectivos e inclusivos y programas personalizados de desarrollo continuo. Por ejemplo, en lo que respecta a la gestión de recursos humanos, la IA puede ayudar a los gobiernos a optimizar las decisiones de contratación al ayudar a encontrar a los mejores candidatos para el puesto de trabajo y mejorar la inclusión al controlar los sesgos humanos.
La IA también puede empoderar a los servidores públicos, contribuir al desarrollo del aprendizaje, mejorar la creación de conocimiento y optimizar las plataformas de aprendizaje para mejorar la capacitación de los servidores públicos. Esto incluye la elaboración de estrategias de desarrollo de competencias, el diseño y la realización de cursos de formación adaptados y la aplicación de herramientas para mejorar el acceso a la información. De este modo, la IA puede garantizar que los servidores públicos estén equipados con los últimos conocimientos y competencias necesarios para satisfacer las cambiantes demandas de sus funciones, fomentando una administración pública más receptiva.
Algunas aplicaciones relevantes de la IA son:
Desarrollo de material didáctico para funcionarios: la IA puede crear contenido didáctico (como módulos y materiales de cursos) a partir de documentos originales e integrar información diversa en recursos efectivos. También puede diseñar, estructurar e implementar cursos de aprendizaje en línea. Las herramientas impulsadas por IA pueden actualizar y perfeccionar continuamente estos recursos a medida que se dispone de nueva información, mejorando la educación continua y el desarrollo de competencias de la fuerza laboral del gobierno.
Personalización del material y las rutas de aprendizaje para los funcionarios: la IA puede adaptar el contenido educativo y las vías de aprendizaje para satisfacer las necesidades, preferencias y progresos específicos de cada servidor público, garantizando una experiencia de aprendizaje más efectiva, atractiva y adaptable. Al dotar a los servidores públicos de las competencias adecuadas de manera más eficiente, esta personalización también mejora la capacidad de respuesta del gobierno.
Identificación y catalogación de los recursos de aprendizaje: las herramientas de IA pueden identificar, describir y catalogar múltiples recursos de aprendizaje, de modo que sean fácilmente localizables y compartibles, simplificando así el descubrimiento de recursos y la identificación de contenido relevante para los alumnos. Por ejemplo, la integración de IA en las plataformas digitales puede mejorar las funciones de organización, catalogación y búsqueda.
Por ejemplo, la Comisión Australiana de Administración Pública (APSC) ha llevado a cabo un proyecto piloto de seis semanas para ver si la IA puede diseñar, estructurar e implementar un curso de aprendizaje en línea sobre competencias digitales para el liderazgo (véase el Recuadro 5.22). Para más información sobre este tema, véase el Capítulo 5, sección "Reforma de la función pública".
Mejora de la toma de decisiones, interpretación y pronósticos
Los expertos en IA han identificado la mejora en la toma de decisiones, la interpretación y los pronósticos como los beneficios más importantes de la IA en general, y recomiendan medidas más enérgicas y más inversiones por parte de los gobiernos para lograr estos objetivos (OECD, 2024[14]). Como se analiza más adelante, los gobiernos deben adoptar estos beneficios con cautela para evitar una dependencia excesiva de la IA, ya que las deficiencias de los sistemas pueden ser difíciles de identificar y, diferir excesivamente el juicio humano a las máquinas, podría permitir la propagación sistémica de errores y causar daños.
Mejorar la toma de decisiones y la interpretación del presente
Al proporcionar información procesable basada en datos, la IA puede ayudar a los gobiernos a mejorar la efectividad y la eficiencia de las acciones focalizadas, asignar recursos e identificar problemas y soluciones en materia de políticas. Por lo tanto, los gobiernos pueden responder de manera más efectiva a los nuevos problemas, pueden garantizar la formulación de políticas informadas, aumentar su capacidad general de respuesta y su rendición de cuentas y, en última instancia, promover el bienestar social.
Algunas formas específicas en las que la IA puede resultar beneficiosa a lo largo del ciclo de formulación de políticas (Gráfico 1.3) incluir:
Establecimiento de la agenda y formulación de políticas: la IA puede desempeñar un papel fundamental para llamar la atención de los responsables de la formulación de políticas y del proceso de establecimiento de la agenda al enmarcar los problemas sociales de manera que respondan mejor a las necesidades sociales reales. Por ejemplo, la IA permite a los gobiernos monitorear y dar sentido a temas emergentes en tiempo real a partir de conjuntos de datos amplios y representativos, mejorando la precisión y la velocidad de la fijación de la agenda (Valle-Cruz et al., 2020[62]; Kolkman, 2020[63]). Al detectar los desafíos potenciales con mayor precisión y rapidez, la IA facilita respuestas políticas más rápidas antes de que los problemas se agraven (OECD/UNESCO, 2024[12]; Höchtl, Parycek and Schöllhammer, 2015[64]). Mediante la formulación de políticas, la IA puede influir en el proceso de toma de decisiones, al poner en primer plano datos e información importantes sobre problemas (Valle-Cruz et al., 2020[62]). El análisis basado en la IA puede proporcionar información que estime no solo los impactos probables de las políticas, sino que también identifique a las poblaciones destinatarias y realice diagnósticos económicos y sociales, ayudando así a los responsables de la formulación de políticas a tomar decisiones informadas (Wirjo et al., 2022[65]; Ubaldi et al., 2019[9]). La IA también puede ayudar a concebir alternativas políticas, proporcionando una evaluación ex ante más profunda de las políticas (Desouza and Jacob, 2014[66]).
Implementación de políticas. A medida que las políticas pasan a la fase de implementación, la automatización impulsada por la IA, el rápido procesamiento de datos y el análisis en tiempo real mejoran la calidad, velocidad y eficiencia de la implementación de políticas. Los análisis de IA refuerzan y agilizan especialmente la adquisición de datos e información, lo que respalda las mejoras continuas. El análisis de datos en tiempo real puede facilitar mejoras a gran escala y, en última instancia, mejorar la prestación de servicios durante la implementación de políticas (Valle-Cruz et al., 2020[62]; OECD/UNESCO, 2024[12]).
Supervisión y evaluación. La IA puede monitorear las intervenciones de política en tiempo real, facilitando una mejor comprensión del proceso de formulación de políticas, contribuyendo con evaluaciones oportunas y precisas de datos permitiendo ajustes rápidos de las políticas cuando sea necesario (OECD, 2019[67]; OECD/UNESCO, 2024[12]).
Los datos accesibles y el aumento de la potencia informática están proporcionando a la IA una ventaja competitiva sobre los seres humanos en lo que respecta a la toma de decisiones en algunos casos (Green, 2022[68]). Por ejemplo, los programas de aprendizaje permanente pueden respaldar el razonamiento individual y las pruebas demuestran los beneficios reales de la toma de decisiones asistida por IA (Brynjolfsson, Danielle and Raymond, 2023[69]). Los sistemas de IA pueden mejorar la toma de decisiones al mitigar los errores de razonamiento y cognitivos, ayudando a los humanos a filtrar el "ruido", la variabilidad no deseada en la toma de decisiones humana, y las influencias irrelevantes que pueden conducir a decisiones incoherentes e inexactas (Du, 2023[70])7. El potencial de los sistemas de IA para tomar decisiones basadas en datos está llevando a su adopción en una serie de sectores, incluido el sector público. La IA puede identificar y abordar elementos que distorsionan el juicio humano en diversas aplicaciones en el gobierno (Mills, Costa and Sunstein, 2023[60]).
Además, el ruido puede ocultar información clave sobre el comportamiento humano, que la IA puede descubrir y cuantificar, contribuyendo así a una formulación de políticas más precisa (Aonghusa and Michie, 2020[71]). Los algoritmos pueden reducir significativamente el ruido al garantizar la coherencia de los resultados independientemente de los factores contextuales, como el estado de ánimo o la hora del día. Al descubrir patrones de comportamiento previamente no detectados u ocultos, la IA puede permitir a los responsables de la formulación de políticas comprender mejor las tendencias sistémicas y las incoherencias en la toma de decisiones (Ludwig and Mullainathan, 2022[72]). Si bien la eliminación del ruido no aborda todos los errores, mejora la fiabilidad y reduce las disparidades arbitrarias en las decisiones relativas a funciones gubernamentales como la administración de justicia y la prestación de servicios públicos (Sunstein, 2023[73]).
A medida que la IA se integra más en la administración pública, es cada vez más importante comprender los procesos psicológicos y cognitivos que moldean las interacciones humanas con estas tecnologías. La administración pública, basada en el comportamiento, puede aportar información valiosa adicional sobre los desafíos que pueden surgir, ofreciendo estrategias para mitigarlos y mejorar la gobernanza y la toma de decisiones (Alon-Barkat and Busuioc, 2024[74])8. Un ejemplo de ello es el uso que hacen los gobiernos de ”Polis”, una herramienta de participación cívica de código abierto para comprender las opiniones de la ciudadanía, así como los ámbitos de consenso y desacuerdo en materia de políticas públicas (Recuadro 5.36). En el ámbito de la gestión de las finanzas públicas, Corea desarrolló dBrain+, un sistema de información que aprovecha la IA para analizar datos económicos, fiscales y financieros en tiempo real con el fin de optimizar la evaluación de riesgos y la toma de decisiones en las finanzas públicas (Recuadro 5.8).
Mejor pronóstico del futuro
Los sistemas de IA pueden procesar grandes volúmenes de datos de múltiples fuentes, incluidos datos no estructurados, e identificar patrones complejos y señales débiles —señales tempranas de posibles cambios emergentes, amenazas y oportunidades— que no son fácilmente detectables con los métodos existentes. Esto puede mejorar la precisión y puntualidad de las predicciones y puede ser muy beneficioso para otras actividades de prospección estratégica (Fitkov-Norris and Kocheva, 2025[75]). La analítica predictiva y el pronóstico de IA en el gobierno implican el uso de algoritmos para anticipar tendencias y riesgos futuros. Puede aplicarse ampliamente en diversos ámbitos, como los pronósticos de resultados macroeconómicos y fiscales (por ejemplo, el PIB de "predicción a corto plazo", como se analiza en el Capítulo 5, sección "La IA en la gestión de las finanzas públicas").
Al proporcionar información precisa y oportuna con visión de futuro, la IA mejora la toma de decisiones, la asignación de recursos y la efectividad general de las operaciones gubernamentales. Algunas aplicaciones relevantes de la IA son:
Predecir las necesidades de servicios futuros: La IA tiene un importante potencial en la generación de análisis y previsiones predictivas, lo que permite a los servicios públicos anticiparse a las necesidades y ser proactivos. La IA puede ayudar a predecir las necesidades de servicios futuros, optimizar la asignación de recursos y mejorar la capacidad de respuesta en diversos ámbitos públicos, al permitir el análisis de datos históricos y tendencias.
Pronósticos regulatorios: los reguladores pueden usar IA para descubrir tendencias emergentes y cambios en diversas industrias y planificar proactivamente las respuestas regulatorias. Mediante el seguimiento y análisis continuo de datos de múltiples fuentes, como informes de mercado, redes sociales y artículos de noticias, la IA puede identificar nuevos de avances tecnológicos que pueden afectar al panorama regulatorio.
Gestión del riesgo de catástrofes: la IA también puede ayudar a predecir catástrofes naturales mediante el análisis de datos históricos y tendencias actuales. Por ejemplo, los sistemas de IA pueden analizar imágenes satelitales y otros datos para predecir la probabilidad de desastres naturales como incendios forestales y terremotos, lo que permite adoptar medidas proactivas para minimizar daños y mejorar la seguridad pública (Sun, Bocchini and Davison, 2020[76]; Gupta and Roy, 2024[77]). Los sistemas de IA pueden ofrecer alertas tempranas e información útil para ayudar a los gobiernos a responder rápidamente a este tipo de eventos y mitigar sus efectos.
Anticipación ante riesgos de corrupción y fraude: los sistemas de IA predictivos están ayudando a los actores de integridad a priorizar los casos para un examen humano más detallado. Aunque la transferencia de estos enfoques de la investigación a los gobiernos es todavía limitada, está creciendo de manera constante. Por ejemplo, los sistemas de IA pueden utilizarse para priorizar casos de riesgo y agilizar procesos de auditoría. También pueden apoyar la focalización de las políticas anticorrupción al proporcionar sistemas de alerta temprana que predicen la corrupción pública basándose en datos como factores económicos y políticos. Las técnicas predictivas también son clave para varias actividades de rendición de cuentas y supervisión gubernamental basada en IA, como la detección del fraude basada en el riesgo, como se analizará más adelante.
Como ejemplo de predicción de las futuras necesidades de servicio público, el sistema PrevocupAI de Portugal pretende predecir las enfermedades relacionadas con el trabajo y los factores de riesgo conexos en la administración pública para minimizar las interrupciones (véase el análisis del Capítulo 5, sección "La IA en el diseño y la prestación de los servicios públicos").
Mejorar la gestión y la accesibilidad de la información
Disponer de datos fiables y de calidad es un requisito previo subyacente para disfrutar de las ventajas de la IA. La IA puede ayudar a maximizar la calidad y la utilidad de los datos, así como la capacidad de los seres humanos y las máquinas para procesarlos y analizarlos (Jarrahi et al., 2023[78]). Por ejemplo, los sistemas de IA permiten nuevas formas de recopilación de datos, como la detección e identificación automática de elementos en imágenes, grabaciones de audio o vídeos. Las capacidades y la prevalencia de los dispositivos de detección basados en IA han progresado rápidamente, lo que permite la transcripción automática del habla, la detección de movimiento, el reconocimiento de imágenes en vivo y una amplia gama de tareas que antes requerían mano de obra humana (Zhang, Wang and Lee, 2023[79]; OECD, 2023[33]). La IA también puede mejorar la forma de almacenar, difundir y aplicar la información. Esto es especialmente evidente con la integración de IA en los sistemas de gestión del conocimiento (Sanzogni, Guzman and Busch, 2017[80]).
Mejorar la gestión interna de la información dentro de los gobiernos también puede ayudar a estos a proporcionar información y datos abiertos al público. El uso de la IA puede ayudar a minimizar los errores en la gestión de datos, por ejemplo, reduciendo el esfuerzo manual, y cuando se utiliza en combinación con tecnologías que mejoran la privacidad (PET, por sus siglas en inglés) puede también ayudar a mejorar la privacidad y protección de datos personales y la información sensible (OECD, 2025[81]). Esto, a su vez, permite una publicación más amplia y el acceso a datos abiertos. Por ejemplo, en la administración de justicia, un motor de anonimización impulsado por IA puede identificar y proteger automáticamente los datos personales en el marco de decisiones judiciales (Recuadro 5.64), preparándolos para su publicación como parte de una iniciativa de datos abiertos. La OCDE (2023[82]) también está explorando el uso de PET, que son soluciones digitales que permiten recopilar, procesar, analizar y compartir información, al mismo tiempo que se protege la confidencialidad y la privacidad de los datos9.
Los asistentes virtuales internos del gobierno para servidores públicos son un buen ejemplo, ya que Albert, de Francia, y Caddy, del Reino Unido, proporcionan una gran cantidad de información histórica e intergubernamental a manos de los servidores públicos para fundamentar decisiones y ayudar a responder a las consultas de la ciudadanía (Recuadro 5.46).
Responsabilidad mejorada y detección de anomalías
Uno de los usos más antiguos de la IA en los gobiernos es detectar anomalías existentes, como el fraude, o prever futuros riesgos para la integridad, mejorando así la rendición de cuentas, la responsabilidad en la gestión pública y la integridad de los programas estatales. Se debe tener especial cuidado en este uso de la IA para evitar resultados posiblemente perjudiciales en los resultados.
Detección de transacciones indebidas y evaluación de riesgos para la integridad
Este tipo de actividades son comunes en una variedad de funciones gubernamentales, entre ellas la contratación pública, la administración tributaria y la gestión de las finanzas públicas. El fraude y los pagos indebidos en los programas gubernamentales pueden ser fuentes importantes de fuga financiera. Por ejemplo, solo en Estados Unidos, el gobierno federal pierde entre 233 y 521 mil millones de dólares estadounidenses al año por fraude (US GAO, 2024[83]).
Los algoritmos ML son particularmente efectivos en el reconocimiento de patrones, ya que permiten el análisis de grandes conjuntos de datos y detectan valores atípicos , relaciones ocultas (por ejemplo, que indican colusión) y otras anomalías que requieren una investigación humana adicional. Sin la capacidad de analizar datos a escala o de identificar patrones ocultos, estas irregularidades pueden pasar desapercibidas sin IA. Este uso de IA puede mejorar la capacidad de las organizaciones gubernamentales para mantener la integridad y la rendición de cuentas. Por ejemplo, la autoridad tributaria francesa utiliza la IA para analizar fotografías aéreas e identificar bienes inmuebles no declarados (Recuadro 5.1).
Los Gobiernos pueden utilizar la IA para identificar, evaluar, predecir y responder mejor a los posibles riesgos para la integridad, lo que permite una mejor gestión, mitigación e intervenciones oportunas. Por ejemplo, en materia de cumplimiento normativo, los inspectores utilizan cada vez más la IA para evaluar el riesgo que plantean los operadores privados. Esto mejora la focalización de las inspecciones, la protección de los intereses públicos y el uso eficiente de los recursos (OECD, 2018[84]; OECD, 2021[85]). La IA ayuda a los inspectores detectando patrones indicativos de posibles incumplimientos, lo que permite una evaluación de riesgos más precisa. Este uso de la IA no solo racionaliza las inspecciones, sino que también mejora la efectividad general de los marcos regulatorios al garantizar que los recursos se destinan a donde más se necesitan.
Permitir a los actores no gubernamentales comprender y colaborar con la administración pública y promover la rendición de cuentas
El sector público puede utilizar la IA para ser más transparente y permitir nuevas formas y canales de interacción entre la ciudadanía, las organizaciones de la sociedad civil (OSC) y las instituciones públicas. De hecho, los expertos en IA sugieren que empoderar a la ciudadanía, las OSC y los interlocutores sociales (por ejemplo, los sindicatos) es uno de los 10 beneficios más importantes que puede reportar la IA. Esto se sustenta en la transparencia gubernamental y el uso de la IA (OECD, 2024[14]), es decir:
Ofrecer herramientas basadas en IA que aprovechen los datos abiertos gubernamentales directamente a la ciudadanía para ayudarles a desenvolverse y dar sentido a los procesos y acciones de la administración.
Permitir la supervisión y el escrutinio por terceros de las operaciones gubernamentales por parte de las OCS y otros agentes no gubernamentales.
La oferta de oportunidades de participación y de canales a través de los cuales el público pueda dar su opinión y plantear posibles cuestiones sobre el desempeño y las decisiones del gobierno.
Si se ejecuta bien, este uso de la IA puede promover la rendición de cuentas y la integridad pública, reforzar la formulación de políticas y aumentar la confianza de la ciudadanía en la administración pública. Este beneficio, incluidos ejemplos reales y el debate sobre las medidas que los gobiernos deben adoptar para lograrlo, se analiza en profundidad en el Capítulo 5 de la sección "Participación cívica y gobierno abierto".
Desbloquear oportunidades para partes interesadas externas a través de la IA como un común
Un beneficio final del uso de la IA en el sector público es la creación de nuevas oportunidades para las partes interesadas externas, como las empresas y la ciudadanía, proporcionándoles acceso a sistemas de IA desarrollados por la administración pública. Este beneficio de la IA puede no ser tan directamente observable en las actividades gubernamentales inmediatas como los demás beneficios. Sin embargo, tiene el potencial de mejorar la gobernanza pública a través de una mayor confianza en el gobierno, una ciudadanía más informada y capacitada, o incluso a través del crecimiento económico. Los países han puesto en marcha programas de desarrollo sostenible no solo para promover la transparencia y la rendición de cuentas, sino también para promover el espíritu empresarial, el crecimiento económico y la creación de valor que puede que no se hayan entendido o previsto necesariamente desde su inicio (OECD, 2018[86]). Por ejemplo, los datos de imágenes satelitales Landsat publicados libremente por el Servicio Geológico de los Estados Unidos desde 2008 generan ahora un valor económico de más de 25.000 millones de dólares anuales (USGS, 2024[87]). Cuando el movimiento de datos abiertos comenzó a finales de la década de 2000 y principios de 2010 (Chignard, 2013[88]), no se sabía del todo que los datos disponibles servirían como vastos recursos para la capacitación de sistemas de IA una década después.
La naturaleza de la IA difiere claramente de la de los datos en que no es un subproducto natural de una serie de funciones y actividades existentes, y no puede servir como entrada bruta para otros procesos. (Por ejemplo, los datos se han comparado con el combustible, la electricidad o el agua potable para la IA). Sin embargo, el uso de la IA por parte de los gobiernos tiene el potencial de generar bien público al empoderar a las partes interesadas para que mejoren sus capacidades y el acceso a la información con el fin de obtener nuevo valor.
A diferencia de otras aplicaciones —en las que la IA facilita las interacciones entre el gobierno y la ciudadanía, o mejora el suministro de información y la accesibilidad—, determinados usos específicos de la IA en la gobernanza pública pueden aumentar las capacidades de estos agentes, permitiéndoles alcanzar sus misiones y objetivos de manera más efectiva. Por ejemplo, el Gobierno de la India ha puesto a disposición de los agricultores sistemas de IA para ayudarles a garantizar la salud de los cultivos y mitigar los desafíos relacionados con las plagas (Jeevanandam, 2024[89]). Otro ejemplo es la iniciativa alemana de desarrollo FAIR Forward (Inteligencia Artificial para Todos) que apoya la creación abierta y el uso responsable de sistemas de IA en ámbitos como la agricultura, la protección del clima y la participación ciudadana (OECD, 2023[90]). Tales enfoques pueden ser particularmente útiles en mercados que aún no cuentan con soluciones del sector privado o que tienen poco atractivo para ellas. Los gobiernos pueden tener los recursos para invertir en campos poco explorados y pueden dar los primeros pasos para construir nuevos mercados, asumiendo riesgos donde otros pueden no estar listos o no estar dispuestos a hacerlo.
El potencial de oportunidades externas positivas se amplificaría aún más si los gobiernos proporcionaran acceso a los facilitadores de IA, como la infraestructura digital en forma de potencia informática (Ho, 2023[91]) (véase el Capítulo 4, sección "Desarrollo de la infraestructura digital"). En algunos casos, es posible que estos facilitadores ya existan para uso gubernamental, por lo que solo requieren algunos ajustes y una ampliación para ponerlos a disposición de un público más amplio. En otros casos, podrían desarrollarse y suministrarse facilitadores dirigidos a agentes externos. Esto puede democratizar el valor potencial de la IA (OECD, 2024[14]).
Las entidades no gubernamentales también pueden participar en la creación y el despliegue de herramientas de IA, desempeñando un papel destacado en el fomento de la participación basada en la tecnología (OECD, 2025[92]).
Para aprovechar los beneficios de la IA, es necesario gestionar sus riesgos
Copiar enlace a Para aprovechar los beneficios de la IA, es necesario gestionar sus riesgosLa adopción mundial de IA en todos los sectores plantea cuestiones sobre confianza, equidad, privacidad, seguridad y rendición de cuentas, entre otras. La consideración de estas cuestiones y la gestión de los riesgos de la IA pueden incidir en su adopción y en la materialización de sus beneficios (Tse and Karimov, 2022[93]). La IA plantea cientos de riesgos10 y los expertos identifican algunos de los más importantes para la sociedad como (OECD, 2024[94]; [14]; [95]; 2022[96]):
Posibles efectos adversos para algunos grupos o individuos si los sistemas de IA están respaldados por datos inadecuados o sesgados.
Los sistemas de IA que carecen de suficiente transparencia y explicabilidad erosionan la rendición de cuentas.
Algunos usos de la IA suscitan preocupación en cuanto a la protección de los datos, la privacidad y la vigilancia.
La IA puede facilitar amenazas cibernéticas cada vez más sofisticadas.
En sistemas críticos podrían producirse incidentes y desastres de IA de poca importancia a graves.
La IA podría contribuir a las perturbaciones del mercado laboral.
La potencia computacional de la IA requiere un consumo energético muy significativo.
Se trata de cuestiones complejas que están considerando gobiernos, empresas, CSOs y otras partes interesadas pertinentes. Esfuerzos como la adopción de la Ley de IA de la Unión Europea (UE) (2024[97]) y una variedad de iniciativas de gobernanza a nivel nacional ilustran cómo los gobiernos están asumiendo un papel activo en la gobernanza de la IA para la sociedad11.
Riesgos específicos del uso de IA en la administración pública
Quizás todos los riesgos de la IA podrían implicar a al sector público de alguna manera, como la necesidad de procesos de gobernanza o medidas de mitigación. Sin embargo, definir subconjuntos más reducidos de riesgos es más relevante para los responsables de la formulación de políticas y los servidores públicos a la hora de perseguir el uso estratégico y responsable de la IA en el gobierno. Como se ha mencionado anteriormente, los gobiernos tienen una influencia enorme en la vida de las personas, por lo que el uso que hacen de la IA puede tener un mayor impacto tanto positivo como negativo en la opinión pública. Por lo tanto, las expectativas de rendición de cuentas son mayores para el uso gubernamental de IA. Esto puede verse explícitamente en la Ley de IA de la UE, que clasifica muchos casos de uso de la IA en el sector público como de "alto riesgo", y algunos como de "riesgo inaceptable", por lo que están prohibidos en la UE (Recuadro 1.2). Estados Unidos adopta un enfoque diferente, considerando algunos casos de uso como de "alto impacto" y, por lo tanto, exigiendo ciertas prácticas de gestión de riesgos (Recuadro 1.3). Ley básica de Corea sobre el desarrollo de la IA y el establecimiento de una base de confianza ("Ley básica de la IA") (2024[98]), que entrará en vigor en enero de 2026 y se aplica a las organizaciones que desarrollan o utilizan IA en el mercado coreano, también designa algunos usos como de "alto impacto", por lo que requiere medidas reforzadas para garantizar la seguridad y fiabilidad de la IA. La Ley Básica de IA también incluye una designación separada para la IA generativa que incluye requisitos específicos de transparencia y divulgación.
Recuadro 1.2. Niveles de riesgo de la Ley de IA de la UE en relación con la IA en la administración pública
Copiar enlace a Recuadro 1.2. Niveles de riesgo de la Ley de IA de la UE en relación con la IA en la administración públicaLa Ley de IA de la Unión Europea (UE) es un reglamento sobre IA que entró en vigor en agosto de 2024. El reglamento establece obligaciones para la IA en función de sus posibles riesgos y nivel de impacto. La ley identifica cuatro niveles diferentes de riesgos que son relevantes para el uso de la IA por parte del gobierno.
Riesgo inaceptable. Los usos de IA en esta categoría están prohibidos. Algunos ejemplos son la actuación policial predictiva, la identificación biométrica remota en tiempo real (incluido el reconocimiento facial) en espacios públicos para la aplicación de la ley, la puntuación social y la evaluación del riesgo de que una persona cometa delitos. La aplicación de la ley y la administración de justicia se encuentran entre las funciones del gobierno más afectadas por esta categoría. Sin embargo, se aplican algunas excepciones, como los casos de uso relacionados con la seguridad nacional y los que siguen estando sujetos a supervisión judicial.
De alto riesgo. Los usos de IA en esta categoría están permitidos pero regulados debido a su importante potencial de perjuicio para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de Derecho. Debido a su posible impacto en estos aspectos, muchos usos gubernamentales de la IA podrían entrar en esta categoría. Algunos ejemplos son los sistemas utilizados para influir en el resultado de las elecciones y en el comportamiento de los votantes, el tratamiento automatizado de datos personales para evaluar diversos aspectos de la vida de una persona, la evaluación de la idoneidad para acceder a prestaciones y servicios, y los componentes de seguridad utilizados en la gestión y el funcionamiento de infraestructuras críticas. Entre las obligaciones se incluyen el establecimiento de un sistema de gestión de riesgos, la realización de la gobernanza de datos, el establecimiento de documentación técnica para demostrar el cumplimiento y la evaluación obligatoria del impacto en los derechos fundamentales.
Riesgo limitado. Estos usos pueden incluir sistemas destinados a comunicarse con personas, como chatbots, así como sistemas que generan contenido como texto e imágenes. Las obligaciones de transparencia exigen que los desarrolladores e implementadores se aseguren de que los usuarios finales sepan que interactúan con IA.
Riesgo mínimo. Estos sistemas no están regulados, pero se sugiere un código de conducta. Algunos ejemplos son los videojuegos y los filtros de spam.
Fuente: (EU, 2024[97]).
Recuadro 1.3. El concepto de IA de "alto impacto" en la política de Estados Unidos (EE.UU.)
Copiar enlace a Recuadro 1.3. El concepto de IA de "alto impacto" en la política de Estados Unidos (EE.UU.)En Estados Unidos, la política M-25-21 Aceleramiento del uso federal de IA mediante la innovación, gobernanza y confianza pública establece un enfoque dualista para los casos de uso de IA en el gobierno: o bien el caso de uso de IA se considera de "alto impacto", o bien no lo es.
La IA de alto impacto es aquella cuya producción sirve de base principal para decisiones o acciones con efectos jurídicos, materiales, vinculantes o significativos sobre:
Los derechos civiles, las libertades civiles o la privacidad de una persona o entidad; el acceso a la educación, vivienda, seguros, créditos, empleo, recursos o servicios gubernamentales críticos; u otros programas
Salud y seguridad humana
Infraestructura crítica o seguridad pública
Activos o recursos estratégicos, incluidos los bienes de alto valor y la información etiquetada como sensible o clasificada por el gobierno federal.
Los organismos federales son responsables de revisar sus casos de uso de IA y de determinar la aplicabilidad de la definición de alto impacto. La política ofrece ejemplos de 15 categorías de casos de uso de IA que se supone tienen un alto impacto.
Las agencias deben implementar prácticas mínimas de gestión de riesgos para los casos de uso de IA de alto impacto. Entre las prácticas mínimas de gestión de riesgos se incluyen las siguientes: realizar pruebas previas al despliegue y una evaluación del impacto de la IA; supervisar de forma continua el rendimiento y los posibles impactos negativos; garantizar una formación humana adecuada, la evaluación, supervisión humana, intervención y rendición de cuentas; ofrecer soluciones y recursos coherentes; y consultar e incorporar comentarios de los usuarios finales y del público. Las agencias deben tener un plan para interrumpir el uso de cualquier sistema de IA de alto impacto que no funcione a un nivel adecuado de conformidad con la política, hasta que se adopten medidas para lograr el cumplimiento.
Los programas piloto limitados deben seguir prácticas mínimas de gestión de riesgo cuando sea posible. Sin embargo, si la persona titular de la Dirección de IA (CAIO por sus siglas en inglés) certifica y se cumplen otros criterios, tal como se detalla en el documento fuente, los programas piloto estarán exentos de las prácticas mínimas de gestión de riesgo. Las CAIO de las agencias también pueden eximir de una o más prácticas mínimas de gestión de riesgo en determinadas circunstancias para un caso de uso específico, aunque deben certificar la validez continua de cada determinación y eximir anualmente, realizar un seguimiento centralizado de ellas y publicar un resumen de cada una.
En su afán por desarrollar y utilizar la IA, los gobiernos se enfrentan a riesgos que incluyen posibles peligros y amenazas que podrían causar graves problemas a las personas y la sociedad (Valle-Cruz, Garcia-Contreras and Gil-Garcia, 2023[99]), lo que podría socavar la confianza pública, la legitimidad del uso de IA por parte del gobierno e incluso los valores democráticos. Para abordar estas preocupaciones, es importante identificar y gestionar estos riesgos, tener en cuenta cómo los sistemas de IA pueden afectar de manera diferente a la ciudadanía o a las poblaciones marginadas, ayudar a garantizar la distribución equitativa de los beneficios de la IA y mitigar posibles daños. La consideración continua de los riesgos potenciales es importante porque los riesgos conocidos pueden evolucionar y pueden surgir nuevos riesgos, incluidos los que anteriormente se consideraban fuera del ámbito de la posibilidad.
Este informe identifica cinco tipos generales de riesgo relacionados con el uso de IA en la administración pública, que se presentan a continuación. Más allá de lidiar con estos riesgos, los gobiernos también se enfrentan a una serie de desafíos de implementación al intentar desarrollar y utilizar la IA. Estos desafíos de implementación se analizan en el Capítulo 3.
Riesgos éticos: Entre ellos se incluyen los usos de la IA que socavan el libre ejercicio de los derechos humanos y las libertades, incluida la privacidad, y que pueden infringir, de forma deliberada o inadvertida, valores centrados en la persona. Los algoritmos de IA pueden introducir riesgos éticos desde el ámbito digital al mundo físico a través de algoritmos sesgados y comportamientos poco éticos como la vigilancia invasiva. Entre las principales preocupaciones se incluyen las amenazas a la confianza, la equidad, la libertad, la dignidad, la autonomía individual y los derechos laborales.
Riesgos operativos: Entre ellos se incluyen fallas técnicas y operativas que podrían afectar a la privacidad de los datos, la calidad de los resultados de la IA y las operaciones internas de los gobiernos debido a ciberamenazas, consecuencias no deseadas, alucinaciones, errores sistemáticos y la dependencia excesiva de los sistemas de IA.
Riesgos de exclusión: Estos riesgos están relacionados con las carencias que surgen cuando la ciudadanía que no tiene acceso a la tecnología, o la alfabetización digital, puede quedarse atrás y no poder beneficiarse de los avances de la IA en los servicios públicos.
Riesgos de resistencia pública: Entre ellos, la resistencia pública al uso de IA por parte de las administraciones públicas. Esto puede deberse a la desconfianza en los sistemas o procesos de IA de los gobiernos, o a la difusión de información falsa o engañosa sobre cómo se implementa la IA en el ámbito público y sus posibles impactos.
Riesgos de inacción: Aunque a menudo se pasa por alto, este riesgo incluye los retrasos del gobierno en el uso de la IA para obtener beneficios positivos. Esto puede generar importantes costos financieros y no financieros, que de otro modo se habrían evitado con la adopción exitosa de IA, y una brecha cada vez mayor entre las capacidades del sector público y privado.
Riesgos éticos
Datos inadecuados o sesgados en sistemas de IA
Los sistemas de IA tienen el potencial de perpetuar o generar resultados adversos o perjudiciales, derivados de datos incompletos o inadecuados, así como de la intersección del uso de la IA con prácticas institucionales y sociales de naturaleza sistémica o centrada en el ser humano.
Es importante reconocer que los algoritmos no funcionan de forma autónoma; están moldeados por elecciones humanas en cada etapa, desde la selección del modelo y los datos de entrenamiento hasta el ajuste fino y los ajustes de parámetros. Puesto que los sistemas de IA suelen aprender de los datos generados por el ser humano, reflejan inevitablemente las perspectivas y los comportamientos sociales existentes. En el sector público, los algoritmos rara vez toman decisiones de manera independiente, por lo general sirven como herramientas que informan e influyen en la toma de decisiones humanas en lugar de reemplazarla. Incluso cuando las políticas tienen por objeto la normalización, su correcta aplicación depende en gran medida del contexto local y del "complicado compromiso de múltiples agentes con conocimientos diversos" (Davies, Nutley and Walter, 2008[100]). Esta interacción entre la IA y el juicio humano significa que los errores pueden persistir no solo en los resultados algorítmicos, sino también en la forma en que se interpretan y aplican las recomendaciones generadas por la IA. Por lo tanto, es fundamental comprender cómo procesan y responden los responsables de la toma de decisiones a la información generada por la IA y garantizar que cuentan con las competencias necesarias para utilizar la IA de forma confiable. Por un lado, la subjetividad cognitiva sigue siendo relevante para dar forma a las interacciones humano-IA a pesar de la neutralidad percibida por la IA, mientras que, por otro lado, las máquinas carecen de empatía. Por lo tanto, es importante que los servidores públicos puedan utilizar su juicio profesional y su sabiduría práctica para garantizar la equidad mediante el ejercicio de una discrecionalidad juiciosa.
Los sistemas de IA también son muy sensibles a la calidad de los datos de entrenamiento, lo que los hace susceptibles a patrones de sobreajuste12, a aprender correlaciones espurias y a amplificar errores o sesgos integrados en conjuntos de datos generados por el ser humano. Si bien las llamadas de IA ayudan a eliminar el ruido, como se ha comentado anteriormente como una ventaja, su naturaleza de búsqueda de patrones también puede exacerbarlo, especialmente cuando existen incoherencias sistémicas en los datos de entrenamiento. Sin una supervisión y mitigación rigurosas, existe el riesgo de que la IA refuerce las distorsiones en lugar de adoptar decisiones objetivas y fiables, lo que pone de relieve la necesidad crítica de una cuidadosa conservación y validación de los datos, pruebas del sistema, seguimiento y evaluación del impacto anticipatorios y retrospectivos, y transparencia algorítmica en la toma de decisiones impulsada por IA (Shane, 2019[101]).
Debido a su potencial para generar impactos sistémicos, disponer de datos y algoritmos insuficientes o sesgados, también puede exacerbar otros tipos de riesgos, como los que se analizan a continuación.
Uso indebido o cuestionable de la IA que genera problemas de vigilancia y privacidad
El uso indebido o la aplicación cuestionable de IA en el gobierno podría perjudicar el libre ejercicio de las libertades y los derechos individuales. Una preocupación destacada es el uso de la IA en la prestación de servicios de seguridad pública, donde permite una identificación y seguimiento eficiente a través de datos biométricos y un monitoreo en tiempo real. Aunque estas herramientas pueden ser útiles para la aplicación de la ley y la prevención del delito, también suscitan preocupación en cuanto a la privacidad de los datos y la vigilancia y el control social por parte de las administraciones públicas. Por ejemplo, durante la pandemia de COVID-19, se utilizó IA para realizar un seguimiento de los movimientos de las personas y garantizar así el cumplimiento de los mandatos de autoaislamiento (Saheb, 2022[102]). Aunque esta medida tenía por objeto controlar la propagación del virus, suscitó preocupación entre el público en cuanto a su privacidad (OECD, 2020[103]). De hecho, la vigilancia impulsada por la IA es cada vez más generalizada, tal y como revela el Fondo Carnegie para la Paz Internacional (Feldstein, 2022[104]) que ha descubierto que 97 de 179 (54 %) países analizados están utilizando tecnologías de IA para la vigilancia pública13. El índice identificaba a los Estados no democráticos como uno de los principales motores de la vigilancia de la IA, entre otras cosas, mediante la venta de productos a otros países. Y otros, incluidas las democracias liberales, también son grandes usuarios de la vigilancia con IA (Saheb, 2022[102]). Como se observa en el Recuadro 1.2, la Ley de IA de la UE regula cuándo es admisible el uso de IA para la vigilancia e identifica casos de uso que constituyen un "riesgo inaceptable" y están prohibidos en toda la UE.
Del mismo modo, la prestación de servicios personalizados suele requerir un procesamiento algorítmico de datos dispersos entre múltiples fuentes de datos públicos y, en ocasiones, privados (Nikiforova et al., 2023[105]). Esto plantea problemas de privacidad y pone de relieve la necesidad de que los gobiernos persigan tanto una prestación de servicios eficiente como una sólida protección de los derechos individuales a la privacidad. Por ejemplo, para proporcionar servicios sociales personalizados, los gobiernos pueden agregar datos de registros de salud, logros educativos, historial de empleo e incluso actividad de redes sociales. Si bien el objetivo es ofrecer apoyo personalizado e intervenciones oportunas, el procesamiento de cantidades tan grandes de información personal debe hacerse con cuidado y de manera deliberada, con controles establecidos para mitigar las preocupaciones de la vigilancia. Dichas directrices pueden encontrarse en (OECD, 2017[106]) y (OECD, 1980[107]). Se necesitan políticas e infraestructuras sólidas para considerar las concesiones entre capacidad de respuesta, transparencia y protección de la información sensible (OECD, 2024[108]; [61]).
Otro caso de uso indebido es la puntuación social en la prestación de servicios o la formulación de políticas, una práctica en la que las personas se clasifican en función de su comportamiento o características personales. Los algoritmos de IA analizan datos de fuentes como las redes sociales, las transacciones financieras y los registros públicos para asignar puntuaciones. Estas puntuaciones pueden afectar al acceso a servicios, préstamos y oportunidades de empleo, dando lugar a un trato injusto. El uso gubernamental de estos sistemas está prohibido en la UE como un uso inaceptable (EU, 2024[97]).
En una encuesta reciente a cientos de expertos en diferentes campos, el 79% dijo que la IA tendrá un impacto negativo en la privacidad de las personas para 2040, una preocupación compartida por el público en general (Rainie and Anderson, 2024[109]; Fazlioglu, 2024[110]). En respuesta, los gobiernos tendrán que garantizar que su uso de la IA es confiable para disipar estas preocupaciones.
El posible uso indebido de las herramientas de IA para la vigilancia ciudadana por parte de las autoridades puede dar lugar a extralimitaciones y abusos de poder. La vigilancia continua y la recopilación de datos pueden crear un clima de miedo y desconfianza, especialmente entre las comunidades que ya pueden sentirse desproporcionadamente afectadas por la aplicación de la ley (UN, 2024[111]). Los gobiernos también pueden usar la IA para fortalecer el poder político, facilitando potencialmente la subyugación y el autoritarismo a gran escala (OECD, 2024[14]), especialmente por parte de gobiernos no democráticos o de aquellos que no dan prioridad a la protección de los derechos humanos. Algunos expertos sostienen que la IA podría usarse —y en algunos casos ya se está usando— para rastrear y monitorear a la ciudadanía y residentes a escala, utilizando algoritmos y análisis de comportamiento, identificar y suprimir la oposición y perpetuar regímenes totalitarios (OECD, 2022[112]; Tegmark, 2017[113]; Clarke and Whittlestone, 2022[114]; Byler, 2021[115]).
Por último, la manipulación algorítmica, en la que los sistemas de IA y sus resultados se alteran para producir resultados específicos, es otro posible uso indebido y comportamiento poco ético en el uso gubernamental de la IA (Valle-Cruz, Garcia-Contreras and Gil-Garcia, 2023[99]). Esta manipulación puede deberse a que los servidores públicos, los responsables de la toma de decisiones o los desarrolladores de sistemas de IA modifican los resultados del sistema de forma intencionada para beneficiar o perjudicar a determinados grupos o personas, o para impulsar un programa específico. La complejidad inherente a la IA también puede dificultar el seguimiento y la comprensión del funcionamiento interno de los algoritmos.
Falta de transparencia y explicabilidad
Los sistemas basados en el aprendizaje profundo son "cajas negras", lo que significa que es difícil describir cómo producen un resultado determinado. Estos resultados se generan indirectamente a partir de la formación en aprendizaje profundo, ya que los ingenieros ajustan continuamente los parámetros hasta que el modelo obtiene una puntuación alta en los objetivos de formación (Clarke and Whittlestone, 2022[114]). Incluso los científicos que trabajan en modelos avanzados de aprendizaje profundo no entienden el funcionamiento interno de sus sistemas, y les resulta difícil rastrear estos resultados y probar la confiabilidad de estos sistemas a través de métodos tradicionales (OECD, 2022[112]).
Esto dificulta la detección y mitigación de resultados perjudiciales y plantea desafíos a la hora de determinar la responsabilidad cuando surgen problemas. A medida que los sistemas de IA se van integrando cada vez más en las funciones de gobierno, los sistemas de caja negra podrían dificultar la explicación a la ciudadanía de los motivos que justifican las decisiones respaldadas por IA. También puede exacerbar otros riesgos. Por ejemplo, puede ser más difícil identificar el sesgo algorítmico y sus causas fundamentales en sistemas opacos. Los servidores públicos también podrían tener cada vez más un falso sentido de confianza en sistemas de IA aparentemente eficientes pero defectuosos, ya que estos defectos pueden ser inobservables (lo que contribuye al sesgo de automatización, que se analiza más adelante) (OECD, 2024[14]; Russell, 2019[116]). Esto puede erosionar la rendición de cuentas de los gobiernos y desempoderar a la ciudadanía al limitar su capacidad para tomar decisiones informadas o, potencialmente, al someterlos a decisiones opacas e imperfectas basadas en la IA (Lima et al., 2022[117]).
Riesgos operativos
"Sesgo de automatización": dependencia excesiva de la IA
Muchas personas perciben que los sistemas de IA y sus decisiones son neutrales e imparciales, lo que lleva a los usuarios a aceptar resultados sin escrutinio. Los estudios sobre la toma de decisiones asistida por IA han identificado una tendencia a sobreponderar las recomendaciones algorítmicas, a menudo asumiendo que su predicción es más confiable que el juicio humano, incluso cuando el propio sistema de IA tiene limitaciones (Alon-Barkat and Busuioc, 2024[74]). Este "sesgo de automatización" (la propensión de las personas a confiar en los resultados de la IA porque parecen racionales y neutrales) puede llevar a la aplicación de la toma de decisiones en materia de IA a un número cada vez mayor de desafíos sociales (Horowitz, 2023[118]; Alon-Barkat and Busuioc, 2022[119]) — tal vez para evitar conversaciones y decisiones difíciles sobre enfoques humanos a estas cuestiones. Algunos expertos afirman que este hábito está creando una "fe ciega" en la tecnología, un fenómeno problemático que puede reforzar los problemas sistémicos existentes contra ciertos grupos o individuos y contribuir al abandono del sufrimiento humano y la erosión de la empatía (Goldman, 2023[120]; Olson, 2023[121]).
El llamado "sesgo de automatización" en el gobierno se produce cuando las organizaciones públicas o los funcionarios dependen demasiado de los sistemas de IA para la toma de decisiones o la ejecución de tareas. Por ejemplo, si los profesionales sanitarios confían demasiado en las sugerencias automatizadas por IA sin realizar comprobaciones cruzadas, podrían pasar por alto información crítica o hacer diagnósticos incorrectos. Esta dependencia excesiva puede hacer que los usuarios no reconozcan los errores, acepten resultados incorrectos de IA y reduzcan la supervisión y el juicio humano (Passi and Vorvoreanu, 2022[122]; Klingbeil, Grützner and Schrec, 2024[123]). La IA podría adoptarse sistemáticamente sin evaluar plenamente la precisión y las posibles consecuencias, lo que daría lugar a la dependencia de los sistemas de IA y a la propagación de errores compuestos por todos los sistemas (Valle-Cruz, Garcia-Contreras and Gil-Garcia, 2023[99]).
Uno de los factores que contribuyen a estos problemas son las alucinaciones, que ocurren cuando los sistemas de IA generativa presentan hechos de una manera creíble, a menudo cuando no se encuentra una respuesta correcta en los datos de entrenamiento. Esto puede ser perjudicial en contextos como la toma de decisiones por parte de los gobiernos, en los que puede dar lugar a decisiones o acciones equivocadas (OECD, 2024[94]; Beltran, Ruiz Mondragon and Han, 2024[124]). Por ejemplo, un sistema de IA diseñado para responder a las consultas del público podría proporcionar datos erróneos sobre servicios públicos o enumerar servicios que no existen. Si no se mitigan cuidadosamente, estas consecuencias no deseadas y los resultados incorrectos pueden ampliarse rápidamente, afectando a grandes poblaciones o a decisiones gubernamentales internas críticas.
Los sistemas de IA también pueden ser propensos a errores y fallas de funcionamiento sencillos, lo que puede dar lugar a desviaciones sistemáticas e imprecisión en los resultados algorítmicos. Si estos sistemas no se implementan cuidadosamente o no son técnicamente fiables, se corre el riesgo de que disminuya la confianza pública, incluida la de los servidores públicos. La ciudadanía puede experimentar frustraciones frecuentes debido a la tramitación incorrecta de sus solicitudes o a los retrasos en la prestación de servicios. Por ejemplo, los sistemas automatizados que gestionan los envíos de formularios, las consultas de servicio al cliente y las solicitudes de pago deben operar con gran precisión; de lo contrario, los errores o las fallas técnicas pueden conducir a una percepción de incompetencia y falta de fiabilidad en los servicios públicos. Los problemas técnicos o los errores en las interacciones de los chatbots, como las respuestas incorrectas, la incapacidad de comprender las consultas o las interrupciones del sistema, pueden erosionar aún más la confianza, haciendo que la ciudadanía sienta que los sistemas de IA no son fiables ni efectivos.
La aversión al riesgo también influye en el "sesgo de automatización". Los servidores públicos pueden tener miedo de asumir la responsabilidad personal por las decisiones por miedo a meterse en problemas más tarde. Un ejemplo es cuando un ser humano decide en contra del consejo de un sistema de IA, y resulta ser la decisión equivocada. En tales casos, el funcionario parecerá doblemente responsable. Como se observa en el Recuadro 5.43, algunos sistemas públicos de IA se han diseñado incluso para hacer que los servidores públicos justifiquen su revisión si van en contra de los consejos de un sistema de IA, lo que aumenta la carga de su trabajo y refuerza los incentivos para seguir las recomendaciones del sistema.
La investigación también destaca el concepto de adherencia selectiva, donde los tomadores de decisiones son más propensos a seguir recomendaciones algorítmicas cuando se alinean con sus creencias preexistentes o estereotipos sociales (Alon-Barkat and Busuioc, 2022[119]). Esto puede dar lugar a una toma de decisiones públicas distorsionada, ya que los funcionarios pueden utilizar inconscientemente los resultados de la IA para justificar sesgos preexistentes en lugar de evaluarlos de forma crítica.
Algunas investigaciones sugieren que la dependencia excesiva de la IA puede contribuir a una disminución de las habilidades cognitivas humanas, reduciendo la exploración, creatividad y el pensamiento independiente, a medida que las personas se acostumbran a las soluciones generadas por la IA. Los estudios sugieren que la dependencia frecuente de los sistemas de apoyo a la toma de decisiones impulsados por la IA puede conducir a una descarga cognitiva, reduciendo el compromiso de las personas con el pensamiento crítico y la resolución independiente de problemas (Gerlich, 2025[125]). La toma de decisiones impulsada por IA también entraña el riesgo de promover la homogeneización del comportamiento, ya que sus resultados suelen reflejar una diversidad limitada de perspectivas. Este estrechamiento de perspectivas podría dificultar el pensamiento adaptativo y reducir la capacidad de las sociedades y los gobiernos para navegar por la incertidumbre y el riesgo (Meng, 2024[126]). Aunque el exceso de confianza en la IA puede plantear riesgos, las herramientas de IA también pueden ayudar a los operadores humanos a interpretar y cuestionar decisiones complejas en materia de IA, desalentando la dependencia excesiva (OECD, 2024[94]).
Reducción de la calidad del empleo de servidores públicos
Si bien la IA puede mejorar la calidad del empleo y el bienestar de los servidores públicos, algunos usos pueden tener el efecto contrario. El uso de herramientas de gestión algorítmica está aumentando significativamente, alcanzando una tasa de adopción del 90 % en las empresas estadounidenses y del 79 % en la UE (Milanez, Lemmens and Ruggiu, 2025[127]). Si bien no se han realizado estudios específicos del sector público, se han planteado preocupaciones tangibles sobre los impactos negativos existentes de la IA y las herramientas algorítmicas en la calidad del empleo, incluida la intensificación del trabajo, el aumento del estrés, la percepción de reducción de equidad y la vigilancia en el lugar de trabajo (OECD, 2023[27]). Por ejemplo, la IA podría hacer que los trabajos fueran menos gratificantes y más estresantes al incentivar nuevos tipos de vigilancia en el lugar de trabajo, o nuevas formas de "taylorismo digital" hipereficiente pero agotador, en el que el trabajo esté sujeto a una mayor vigilancia y regulación, incluso a través de la gestión algorítmica (UC Berkeley, 2021[128]; EC, 2025[129])14. Investigaciones posteriores han demostrado que esta vigilancia de la IA puede perjudicar la salud mental (APA, 2023[130])y que la gestión de tareas con IA puede erosionar la autonomía y la voz de los trabajadores, reduciendo la comprensión humana sobre cómo se gestiona el trabajo (Gmyrek, Berg and Bescond, 2023[131]). Sin embargo, si se usan bien, también se ha demostrado que estas herramientas mejoran la seguridad y el bienestar de los trabajadores (por ejemplo, alertando a los trabajadores sobre los peligros y riesgos, o identificando el agotamiento) (EC, 2025[129]). La gestión algorítmica y sus impactos ya se están viendo y estudiando con respecto a su uso en el sector privado (OECD, 2023[27]). La investigación sobre la gestión algorítmica en el sector público es escasa, aunque su uso se está expandiendo rápidamente (EC, 2025[129]).
Tensiones en materia de privacidad y gobernanza de datos
El desarrollo y despliegue de sistemas de IA plantea desafíos en materia de privacidad y gobernanza de datos a lo largo del ciclo de vida de la IA (OECD, 2024[132]; forthcoming[133]). En la fase de entrenamiento de la IA, muchos desarrolladores dependen de fuentes de acceso público para crear conjuntos de datos de entrenamiento de la IA, que pueden incluir, de forma intencionada o involuntaria, datos personales o información sujeta a derechos de propiedad intelectual. Sin embargo, el hecho de que los datos sean accesibles a través de Internet no significa automáticamente que sean gratuitos para su recopilación y uso en la formación de modelos de IA. Además, es posible que se hayan compartido datos personales consintiendo otros usos, lo que no incluye necesariamente la formación sobre modelos de IA (ICO, 2023[134]). La recopilación de datos personales para la formación en sistemas de IA, al igual que cualquier actividad de procesamiento de datos, está sujeta a los principios de privacidad comúnmente reconocidos establecidos en la Recomendación de la OCDE relativa a las Directrices que Regulan la Protección de la Privacidad y los Flujos Transfronterizos de Datos Personales (Directrices de Privacidad de la OCDE) (1980[107]). Estos principios exigen que los datos personales se obtengan a través de medios legales y justos, con el conocimiento del interesado, y que cualquier otro uso de los datos no sea incompatible con los fines originales.
Otro aspecto importante a tener en cuenta es la capacidad de los modelos de IA para memorizar datos personales dentro de sus parámetros durante la fase de entrenamiento. En consecuencia, los grandes modelos de lenguaje que respaldan las herramientas de IA generativa basadas en textos plantean un riesgo particular de acceso y uso no autorizados de datos personales de terceros sin el conocimiento de las personas afectadas (Brown et al., 2022[135]). Algunas investigaciones también muestran que los modelos generativos de IA pueden inferir atributos personales del sujeto de datos a partir de texto con alta precisión, pero a bajo costo (Staab et al., 2023[136]). Esto plantea problemas de privacidad no solo porque estas inferencias pueden revelar información personal o características personales, especialmente cuando dichos rasgos no estaban destinados a compartirse.
Durante la fase de despliegue, los sistemas de IA también pueden estar en tensión con los derechos de las personas a acceder, corregir y, cuando sea necesario, eliminar sus datos personales (también conocidos como el "principio de participación individual" en las Directrices de Privacidad de la OCDE). Por ejemplo, el cumplimiento de los derechos de las personas a que se eliminen o corrijan sus datos puede ser técnicamente complejo y exigir muchos recursos, ya que podría requerir la identificación de puntos de datos específicos relacionados con una persona dentro de conjuntos de datos no estructurados o, en algunos casos, volver a entrenar el modelo de IA. Además, las investigaciones realizadas antes del uso generalizado de modelos generativos de IA sugieren que, en ciertos casos, es posible reconstruir o desanonimizar los datos originales de entrenamiento analizando el comportamiento de un modelo que incluye esos datos (Salem et al., 2018[137]). Para hacer frente a estas tensiones, promover una mayor cooperación internacional entre las comunidades de privacidad de datos y de IA puede contribuir a armonizar las prácticas en materia de datos con el desarrollo y el uso de la IA. Por ejemplo, el Grupo de Expertos de la OCDE en IA, Datos y Privacidad15 está explorando respuestas políticas sobre gobernanza de datos y privacidad en el contexto de la IA, con la participación de expertos de múltiples sectores y disciplinas de todo el mundo.
Amenazas informáticas
Los sistemas de IA incorporados a los procesos gubernamentales pueden ser vulnerables a las amenazas informáticas, que pueden dar lugar a filtraciones de datos, violaciones de privacidad y pérdida de funcionalidad. La amplia recopilación y análisis de datos personales para aplicaciones de IA puede provocar la pérdida, alteración o divulgación no autorizada de estos datos, lo que infringe los derechos de privacidad individuales (Beltran, Ruiz Mondragon and Han, 2024[124]). El acceso no autorizado y las violaciones de datos pueden comprometer la integridad operativa y los datos personales, lo que podría resultar en robo de identidad, fraude financiero y otras violaciones de la privacidad, socavando la confianza pública en las instituciones gubernamentales y dando lugar a consecuencias legales. Además, los ciberactores malintencionados podrían manipular los sistemas de IA, alterando sus resultados y causando decisiones o acciones erróneas (Brundage et al., 2018[138]; Gopireddy, 2024[139]). Los riesgos cibernéticos pueden provenir de malos actores externos o de amenazas internas dentro del gobierno (Eshelby, 2025[140]). En general, la ciberseguridad puede verse como una función horizontal del gobierno en sí misma, y de hecho representa una de las áreas de mayor adopción de IA en el gobierno para mejorar la seguridad de los sistemas informáticos gubernamentales (Mariani, Kishnani and Alibage, 2025[141]). Sin embargo, esta función es muy especializada y no está incluida en el ámbito principal de este informe, por lo que no es un tema de análisis y debate exhaustivos. Sin embargo, la OCDE ha puesto en marcha una línea de trabajo sobre seguridad digital que ha llevado a cabo una labor pertinente16 .
Riesgos de exclusión
Exacerbación de las brechas digitales
El riesgo de omitir a las personas al utilizar la IA en la administración pública está estrechamente relacionado con las brechas digitales (UN, 2024[111]), es decir, la brecha entre quienes pueden acceder y utilizar las tecnologías de la información y la comunicación y quienes no pueden hacerlo. Esto es especialmente evidente en las actividades de prestación de servicios públicos y formulación de políticas, especialmente en el uso de la IA para el análisis predictivo, la pronósticos y la personalización de servicios.
La brecha digital podría dificultar el acceso a los beneficios y el valor público que ofrece la IA. Este es el caso, en particular, de poblaciones que carecen de la infraestructura y la alfabetización digital necesarias para acceder a servicios públicos impulsados por la IA (OECD, 2024[14]; ITU, 2023[142]). La IA en el ámbito gubernamental puede ofrecer ventajas, como información adaptada, tiempos de respuesta más rápidos y una mejor prestación de servicios, pero puede ser inaccesible para quienes no tienen acceso a Internet o conocimientos digitales. La transición de los gobiernos hacia la digitalización puede intensificar las barreras a los servicios digitales públicos entre determinados segmentos de la población. Las investigaciones realizadas en Canadá revelaron que los usuarios de zonas rurales, las mujeres y las niñas y los hogares de bajos ingresos se vieron negativamente afectados por el impulso hacia los servicios digitales en primer lugar debido a la pandemia de COVID-19 (Singh and Chobotaru, 2022[143]). En Noruega, la digitalización y automatización del sistema de concesión de prestaciones por hijos a cargo permitió que la mayoría de los beneficiarios recibieran la prestación automáticamente. Al mismo tiempo, hizo necesario que otros beneficiarios lo solicitaran manualmente, una carga que afectaba desproporcionadamente a los segmentos de bajos ingresos (Larsson, 2021[144]).
Las brechas de datos son otra forma de exclusión causada por la IA que está vinculada a datos no representativos, como consecuencia de las brechas digitales existentes. Las personas sin acceso a Internet suelen estar ausentes de los datos utilizados para desarrollar algoritmos. Dado que la mayoría de los datos se recopilan principalmente a través de Internet y a través de interacciones en línea, el uso generalizado de IA puede excluir a estas personas, ya que los algoritmos utilizados para fundamentar la formulación de políticas carecen de datos representativos. Estas deficiencias dificultan que los gobiernos respondan adecuadamente a las necesidades de toda la ciudadanía, lo que da lugar a conjuntos de datos insuficientes o inadecuados en los procesos de toma de decisiones impulsados por la IA y en la prestación de servicios. Por ejemplo, las brechas de datos limitan el potencial de beneficios de la IA, como los servicios de IA personalizados, por lo que solo resultan útiles y precisos para poblaciones ricas en datos (UNESCO, 2019[145]; Perry and Turner Lee, 2019[146]; Dieterle, Dede and Walker, 2022[147]).
Otra forma de brecha digital es la subrepresentación de las lenguas (Röttger et al., 2024[148]; Peixoto, Canuto and Jordan, 2024[149]). Los conjuntos de datos de formación tienden a representar en exceso los idiomas ampliamente utilizados, como se observa en el Gráfico 1.4. Este desequilibrio puede dar lugar a que los sistemas de IA no presten un servicio efectivo a los grupos lingüísticos no dominantes. Los esfuerzos de preservación de idiomas, como Donate a Speech de Estonia, reducen las actuales limitaciones de la tecnología del habla, que favorece los idiomas más ampliamente reconocidos, y mejoran la prestación de servicios (OECD, 2023[40]). En la sección "Crear fundamentos sólidos para los datos" del Capítulo 4 se tratan consideraciones y ejemplos adicionales.
Gráfico 1.4. Más de la mitad (59%) de los conjuntos de datos de entrenamiento de IA de código abierto están en inglés
Copiar enlace a Gráfico 1.4. Más de la mitad (59%) de los conjuntos de datos de entrenamiento de IA de código abierto están en inglésDesglose porcentual de los idiomas para los conjuntos de datos de entrenamiento de IA de código abierto sobre Hugging Face
Nota: Este gráfico representa la distribución de idioma de todos los conjuntos de datos. Los conjuntos de datos multilingües y de traducción en Hugging Face contienen más de un idioma y, por lo tanto, se cuentan por partida doble. Más información metodológica disponible en: https://oecd.ai/huggingface.
Fuente: OECD.AI (2024), visualizaciones impulsadas por JSI con datos de Hugging Face. Última actualización: 5 de junio de 2025 (consultado el 16 de junio de 2025).
Desplazamiento de la fuerza laboral de los funcionarios públicos
La OCDE (2023[27]) concluyó que, si bien la IA es capaz de automatizar tareas no rutinarias, sus impactos futuros sobre la mano de obra son ambiguos; dependen del equilibrio entre el desplazamiento de la mano de obra humana por parte de la IA, el aumento de la demanda laboral debido a la mayor productividad generada por la IA y la creación de nuevos puestos de trabajo causados por la adopción de IA. La IA puede mejorar la productividad pública al automatizar tareas, y también tiene el potencial de reducir la necesidad de mano de obra humana, lo que da lugar a la necesidad de recalificar a los servidores públicos para que asuman tareas más significativas (Peixoto, Canuto and Jordan, 2024[149]).
Al mismo tiempo, el despliegue de la IA está impulsando una creciente demanda de competencias relacionadas con IA en toda la economía, y el sector público no es la excepción. A medida que aumentan las funciones relacionadas con la IA, pueden disminuir los esfuerzos de contratación y retención para puestos no relacionados con la IA o tradicionales, lo que pone de relieve la necesidad de una mano de obra calificada en IA y tecnologías relacionadas para satisfacer la evolución de la demanda (Acemoglu et al., 2022[150]).
Las tecnologías de IA tienen repercusiones en una amplia gama de profesiones y sectores, afectan a trabajadores de todos los niveles de calificación e influyen en los mercados laborales (OECD, 2023[27]). Mientras que algunos trabajadores públicos pueden adaptarse a la IA e incluso ver mejorado su trabajo, otros, como los trabajadores de más edad y menos calificados que realizan tareas que son fáciles de automatizar, se enfrentan a importantes riesgos. Esto sugiere que los beneficios de la IA no se reparten de manera uniforme entre los servidores públicos (Milanez, 2023[151]). Por ejemplo, los chatbots basados en IA se utilizan ahora de forma generalizada para la prestación de servicios y la comunicación centrada en la ciudadanía con el fin de responder preguntas básicas y proporcionar información, lo que reduce la demanda de representantes gubernamentales de servicios humanos al cliente (Acemoglu, 2024[152]).
Durante muchos años, las preocupaciones sobre la automatización del empleo se centraron en la mano de obra poco calificada, pero la IA está ayudando cada vez más a las tareas cognitivas de alto rendimiento, lo que puede afectar a los servidores públicos, como a los analistas de políticas. La IA generativa puede producir textos significativos, realizar análisis de datos e incluso proponer estrategias políticas para abordar desafíos complejos. Muchos funcionarios tendrán que recibir formación para colaborar efectivamente con la IA y centrarse en el pensamiento estratégico de mayor nivel y en la toma de decisiones.
Riesgos de resistencia pública
La ciudadanía puede aceptar selectivamente los resultados basados en IA, contribuyendo potencialmente a cometer errores
La comprensión de la interacción humano-IA es cada vez más considerada como un desafío clave para la administración pública, con importantes implicaciones para la confianza y la legitimidad. A medida que los gobiernos integran la IA en la toma de decisiones, la aceptación pública de estos sistemas se vuelve crítica. Las investigaciones sugieren que las decisiones algorítmicas, a pesar de su promesa de neutralidad, no siempre se perciben como justas o legítimas, particularmente cuando contradicen las expectativas de los individuos o carecen de transparencia (Alon-Barkat and Busuioc, 2022[119]).
La ciudadanía procesa las decisiones algorítmicas a través de percepciones cognitivas y creencias previas; a menudo aceptan selectivamente recomendaciones generadas por la IA que se alinean con sus expectativas mientras se resisten a las que dicen lo contrario (Alon-Barkat and Busuioc, 2022[119]). Esta adherencia selectiva puede reforzar los errores en la toma de decisiones del gobierno, ya que las personas pueden ser más propensas a confiar en las predicciones algorítmicas cuando confirman estereotipos preexistentes o conocimientos previos.
Falta de empoderamiento público y comprensión del uso que hace el gobierno de la IA
A menudo hay una falta de conocimiento y comprensión entre el público sobre la IA en general y, más específicamente, sobre cómo la utilizan los gobiernos (Arnesen et al., 2024[153]). Esto puede dar lugar a ideas erróneas y temores sobre sus capacidades y sobre si los gobiernos las están utilizando de manera confiable. Esto podría potencialmente resultar en líneas de rumores sobre el uso de IA por parte del gobierno en la formulación de políticas o en la prestación de servicios como préstamos, acceso a la justicia o prestaciones sociales. Esto puede ocurrir porque la complejidad de la IA a menudo se malinterpreta, lo que da lugar a supuestos inexactos sobre cómo se toman las decisiones, la equidad de los resultados y la capacidad de exigir responsabilidades a estos sistemas, o debido a la escasa transparencia sobre cómo las autoridades públicas están utilizando la IA. Esta transparencia limitada o esta brecha en la comprensión hace que el público sea más susceptible al escepticismo sobre las acciones e intenciones de los gobiernos, lo que resulta en resistencia a las soluciones impulsadas por la IA en los servicios públicos (Valle-Cruz, Garcia-Contreras and Gil-Garcia, 2023[99]).
Las decisiones sobre IA pueden percibirse como excesivamente rígidas o irresponsables, especialmente en ausencia de una supervisión humana o vías de reparación. Las investigaciones sugieren que cuando la ciudadanía se siente desempoderada en las interacciones con los sistemas automatizados, como cuando no pueden impugnar decisiones incorrectas basadas en IA, experimentan mayores costos psicológicos y de cumplimiento normativo (Alon-Barkat and Busuioc, 2024[74]).
Por el contrario, unos niveles más altos de empoderamiento público y transparencia sobre el uso, el conocimiento y la comprensión de la IA se asocian a una mayor confianza en la capacidad del gobierno para utilizar la IA de forma responsable (Lahusen, Maggetti and Slavkovik, 2024[154]; KPMG, 2025[155]; Alessandro et al., 2021[156]). Una ciudadanía bien informada es más propensa a reconocer las salvaguardias y consideraciones éticas implementadas por el gobierno, fomentando la confianza en su competencia e integridad en el despliegue de las tecnologías de IA.
El uso indebido de la IA y las controversias pueden socavar la confianza y contribuir a la resistencia pública
El uso de la IA en el gobierno ha dado lugar a varias controversias y casos de daños en la vida real. Esto pone de relieve los altos costos de reputación del uso indebido de la IA, un problema que hace años todavía residía en el discurso público. Un fallo notorio de un sistema de IA puede erosionar la confianza en una gama más amplia de aplicaciones gubernamentales (Longoni, Cian and Kyung, 2022[157]). La reacción negativa de la opinión pública incluso ha provocado que la gente se retire del intercambio de datos o ha obstaculizado el uso de las herramientas existentes (Ada Lovelace Institute, 2025[158]).
La reacción pública es especialmente probable cuando los errores de IA generan daños visibles, como una denegación injusta de beneficios o un trato injusto basado en predicciones sesgadas. Las fallas notorias pueden reforzar el escepticismo de la opinión pública y suscitar preocupación porque las decisiones impulsadas por la IA pueden socavar la justicia procesal y la rendición de cuentas democrática (Alon-Barkat and Busuioc, 2022[119]). Los datos del Monitor de Incidentes de IA (AIM por sus siglas en inglés) de la OCDE muestran el crecimiento de los incidentes y peligros de la IA notificados por fuentes de medios de comunicación acreditadas en los últimos años (Gráfico 1.5)17. Hasta abril de 2025, 3.816 de los 14.981 incidentes enumerados (25%) estaban relacionados con "gobierno, seguridad y defensa", lo que demuestra que los gobiernos deben garantizar que mitigan los riesgos para garantizar la confianza de la ciudadanía.
Gráfico 1.5. Los incidentes de IA han tendido en general al alza desde finales de 2022
Copiar enlace a Gráfico 1.5. Los incidentes de IA han tendido en general al alza desde finales de 2022
Nota: Puede consultarse un resumen de la metodología en https://oecd.ai/incidents-methodology.
Fuente: Monitor de Incidentes de IA de la OCDE (AIM) – https://oecd.ai/incidents.
La ciudadanía también puede mostrar aversión algorítmica, a menudo resistiéndose a la toma de decisiones algorítmica debido a una preferencia por la agencia y el control personales, incluso cuando los sistemas de IA superan a los humanos. Esta reticencia se ve reforzada por una mayor tolerancia a los errores humanos en comparación con los errores algorítmicos; las personas tienden a perder la confianza en la IA después de observar un solo fallo, mientras que son más tolerantes con los errores similares cometidos por los humanos. La aversión algorítmica puede ser más común en algunas funciones (por ejemplo, seguridad pública) que en otras (por ejemplo, administración general), lo que puede contribuir a diferentes desafíos y diferentes niveles de madurez entre las funciones gubernamentales (véase el Capítulo 3) (Zehnle, Hildebrand and Valenzuela, 2025[159]). Ofrecer a los usuarios información sobre el razonamiento que subyace a la recomendación de una IA u ofrecer un control limitado para modificar su resultado puede mejorar significativamente la aceptación, aumentando la probabilidad de que los usuarios adopten consejos basados en IA (Sunstein, 2023[73]). Además de contribuir a los riesgos de resistencia pública, la aversión algorítmica de los servidores públicos puede obstaculizar la capacidad de los gobiernos para aprovechar los beneficios de la IA, como se comenta en el Capítulo 3.
Riesgos de la inacción
Los riesgos más debatidos de la IA tienen que ver con las implicaciones de su despliegue y adopción. Sin embargo, un riesgo menos discutido implica demoras en el aprovechamiento de la IA para generar beneficios positivos en el mundo real, incluso en el gobierno y los servicios públicos. El estudio de la Universidad de Stanford, cien años sobre inteligencia artificial (AI100) (2014[23]), señaló que "los numerosos avances en IA pueden reducir los costos, introducir nuevas eficiencias y aumentar la calidad de vida [...] Sin embargo, los métodos no se han utilizado ampliamente. La lenta traducción de estas tecnologías al mundo se traduce en muertes y costos innecesarios. Existe una necesidad urgente de entender mejor cómo podemos traducir más rápidamente las valiosas competencias y avances existentes en IA en la práctica real". Si bien este estudio tiene más de una década, la conclusión sigue siendo la misma, especialmente en el gobierno. Más allá de las oportunidades perdidas, el riesgo de la inacción en materia de IA sirve para ampliar la brecha entre el sector público y la capacidad del sector privado (Pahlka, 2024[160]). Esto no solo significa que los gobiernos podrían quedarse atrás en su capacidad para utilizar la IA, sino también en su capacidad para regular la tecnología. Los expertos en IA sugieren que uno de los riesgos más críticos de la IA es la incapacidad de los mecanismos de gobernanza y las instituciones para mantenerse al día con la rápida evolución de la IA (OECD, 2024[14]).
Algunas investigaciones ponen de relieve que la exageración negativa y el miedo en torno a la IA pueden contribuir a este riesgo (Laplante et al., 2020[161]). Estas investigaciones señalan que otras limitaciones pueden incluir la falta de datos adecuados, la confusión en torno a los problemas y complejidades de la privacidad y el tratamiento de sistemas informáticos obsoletos. Los expertos también han atribuido la cuestión de la "parálisis del análisis" —el miedo a equivocarse con la IA— como una posibilidad que podría paralizar la implementación de esfuerzos incluso de bajo riesgo, renunciando a beneficios significativos (OECD.AI, 2023[162]). Esto ha demostrado ser cierto en los gobiernos. La última iniciativa transversal de la OCDE sobre la IA en el gobierno (2024[13]) descubrió que estos últimos necesitan promover y habilitar mejor los aspectos positivos del uso de la IA, en lugar de centrarse de manera desproporcionada en la prevención de los negativos. Esta atención a los riesgos podría disuadir del despliegue de usos de la IA de alto beneficio y bajo riesgo para mejorar las políticas y los servicios públicos.
Hacer realidad un futuro positivo para la IA en el gobierno
Copiar enlace a Hacer realidad un futuro positivo para la IA en el gobiernoComo se ha señalado anteriormente, los gobiernos están tratando de utilizar la IA para aumentar la productividad, con operaciones internas más eficientes y políticas y servicios más efectivos; capacidad de respuesta, a través de enfoques adaptados que satisfagan las necesidades cambiantes de la ciudadanía y las empresas; y rendición de cuentas, mejorando su capacidad de supervisión. Sin embargo, existe un enorme potencial sin explotar para que los gobiernos utilicen las tecnologías de IA de hoy y se preparen para desbloquear las oportunidades que presenta la IA del mañana. Aun así, está empezando a surgir una visión de futuro en la que los gobiernos desarrollen y adopten con éxito una IA confiable.
Consideramos que la IA no es una oportunidad para automatizar el sector público, sino para reimaginarlo. Acogemos con satisfacción una visión a largo plazo para la transformación de los servicios públicos en la que la IA siga, en lugar de liderar, una visión que se base en la legitimidad pública y profesional. Los líderes del sector público deberían ver la implementación de la IA como una oportunidad para reimaginar el estado, en lugar de centrarse únicamente en las ganancias inmediatas de eficiencia o en automatizar el statu quo. La IA debe considerarse un catalizador para el rediseño de servicios fundamentales, que sitúe a la ciudadanía en el centro de la prestación de servicios públicos. – Instituto Ada Lovelace (2025[158]).
Esta visión se refleja en el análisis del Capítulo 5 sobre la IA en las funciones centrales de la administración. Al integrar la IA en sus itinerarios digitales, los gobiernos pueden transformar, en lugar de limitarse a optimizar, la forma en que cumplen sus misiones, generar valor público y promover el bienestar social.
Las capacidades y los usos futuros de la IA pueden presentar beneficios y cambios que actualmente son imposibles o incluso inconcebibles. Esto también es cierto en el caso de sus riesgos potenciales. El contenido del Capítulo 5 representa lo que se sabe actualmente sobre IA en el gobierno y, por extensión, lo que se puede imaginar sobre el futuro. Los gobiernos y la OCDE deben mantenerse alerta a la hora de evaluar cómo la evolución de las tecnologías y aplicaciones de la IA puede afectar a las instituciones públicas, los funcionarios y la sociedad en general, garantizando una evaluación continua y la adaptación al servicio del bien público.
A través del análisis y la síntesis de las funciones gubernamentales en el Capítulo 5 y otras investigaciones, y para profundizar en el debate sobre la IA en el gobierno, la OCDE ha llevado a cabo una investigación transversal sobre las tendencias actuales del uso de la IA en las funciones gubernamentales y ha identificado las primeras lecciones de estos casos de uso. Esta investigación y sus hallazgos se discuten en el siguiente capítulo.
Bibliografía
[152] Acemoglu, D. (2024), “The Simple Macroeconomics of AI”, NBER, Working Paper 32487, http://www.nber.org/papers/w32487.
[150] Acemoglu, D. et al. (2022), “Artificial Intelligence and Jobs: Evidence from Online Vacancies”, Journal of Labor Economics, Vol. 40/S1, pp. S293-S340, https://doi.org/10.1086/718327.
[158] Ada Lovelace Institute (2025), Learn fast and build things: Lessons from six years of studying AI in the public sector, Ada Lovelace Institute, https://www.adalovelaceinstitute.org/policy-briefing/public-sector-ai/.
[156] Alessandro, M. et al. (2021), “Transparency and Trust in Government. Evidence from a Survey Experiment”, World Development, Vol. 138, p. 105223, https://doi.org/10.1016/j.worlddev.2020.105223.
[74] Alon-Barkat, S. and M. Busuioc (2024), “Public administration meets artificial intelligence: Towards a meaningful behavioral research agenda on algorithmic decision-making in government”, Journal of Behavioral Public Administration, Vol. 7, https://doi.org/10.30636/jbpa.71.261.
[119] Alon-Barkat, S. and M. Busuioc (2022), “Human–AI Interactions in Public Sector Decision Making: “Automation Bias” and “Selective Adherence” to Algorithmic Advice”, Journal of Public Administration Research and Theory, Vol. 33/1, pp. 153-169, https://doi.org/10.1093/jopart/muac007.
[71] Aonghusa, P. and S. Michie (2020), “Artificial intelligence and behavioral science through the looking glass: Challenges for real-world application.”, Annals of Behavioural Medicine, pp. 942-947, https://doi.org/10.1093/abm/kaaa095.
[130] APA (2023), Worries about artificial intelligence, surveillance at work may be connected to poor mental health, https://www.apa.org/news/press/releases/2023/09/artificial-intelligence-poor-mental-health.
[153] Arnesen, S. et al. (2024), “Knowledge and support for AI in the public sector: a deliberative poll experiment”, AI & SOCIETY, https://doi.org/10.1007/s00146-024-02104-w.
[35] Austin, T. et al. (2024), A snapshot of how public sector leaders feel about generative AI, https://www2.deloitte.com/us/en/insights/industry/public-sector/ai-adoption-in-public-sector.html.
[32] BCG (2024), Where’s the Value in AI?, https://www.bcg.com/publications/2024/wheres-value-in-ai.
[124] Beltran, M., M. Ruiz Mondragon and S. Han (2024), “Comparative Analysis of Generative AI Risks in the Public Sector”, Proceedings of the 25th Annual International Conference on Digital Government Research, pp. 610-617, https://doi.org/10.1145/3657054.3657125.
[28] Bengio, Y. et al. (2025), International AI Safety Report, DSIT 2025/001, 2025, https://www.gov.uk/government/publications/international-ai-safety-report-2025.
[39] Berglind, N., A. Fadia and T. Isherwood (2022), The potential value of AI—and how governments could look to capture it, https://www.mckinsey.com/industries/public-sector/our-insights/the-potential-value-of-ai-and-how-governments-could-look-to-capture-it (accessed on July 2024).
[8] Berryhill, J. et al. (2019), “Hello, World: Artificial intelligence and its use in the public sector”, OECD Working Papers on Public Governance, No. 36, OECD Publishing, Paris, https://doi.org/10.1787/726fd39d-en.
[15] Berryhill, J. et al. (2019), “Hello, World: Artificial intelligence and its use in the public sector”, OECD Working Papers on Public Governance, No. 36, OECD Publishing, Paris, https://doi.org/10.1787/726fd39d-en.
[24] Brizuela, A. et al. (2025), Analysis of the generative AI landscape in the European public sector, European Commission, https://op.europa.eu/s/z4XY.
[45] Brougham, D. and J. Haar (2017), “Smart Technology, Artificial Intelligence, Robotics, and Algorithms (STARA): Employees’ perceptions of our future workplace”, Journal of Management & Organization, Vol. 24/2, pp. 239-257, https://doi.org/10.1017/jmo.2016.55.
[135] Brown, H. et al. (2022), “What Does it Mean for a Language Model to Preserve Privacy?”, 2022 ACM Conference on Fairness, Accountability, and Transparency, pp. 2280-2292, https://doi.org/10.1145/3531146.3534642.
[138] Brundage, M. et al. (2018), The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation, https://arxiv.org/abs/1802.07228.
[69] Brynjolfsson, E., L. Danielle and L. Raymond (2023), Generative AI at Work, National Bureau of Economic Research, https://doi.org/10.3386/w31161.
[115] Byler, D. (2021), In the Camps: China’s High-Tech Penal Colony, Columbia Global Reports, https://www.jstor.org/stable/j.ctv2dzzqqm.
[29] Calvino, F. and L. Fontanelli (2023), “A portrait of AI adopters across countries: Firm characteristics, assets’ complementarities and productivity”, OECD Science, Technology and Industry Working Papers, No. 2023/02, OECD Publishing, Paris, https://doi.org/10.1787/0fb79bb9-en.
[88] Chignard, S. (2013), A brief history of Open Data, https://www.paristechreview.com/2013/03/29/brief-history-open-data.
[114] Clarke, S. and J. Whittlestone (2022), A Survey of the Potential Long-term Impacts of AI - How AI Could Lead to Long-term Changes in Science, Cooperation, Power, Epistemics and Values, https://dl.acm.org/doi/abs/10.1145/3514094.3534131.
[20] Cognitus, A. (2024), 9 Agentic AI Examples: Real-World Use Cases and Applications, https://integrail.ai/blog/agentic-ai-examples.
[48] Corvalán, J. and E. Le Fevre Cervini (2020), Prometea experience. Using AI to optimize public institutions, https://ceridap.eu/prometea-experience-using-ai-to-optimize-public-institutions.
[165] DataHeroes (2023), Noise in Machine Learning, https://dataheroes.ai/glossary/noise-in-machine-learning.
[100] Davies, H., S. Nutley and I. Walter (2008), “Why ‘knowledge transfer’ is misconceived for applied social research”, Journal of Health Services Research & Policy, Vol. 13/3, pp. 188-190, https://doi.org/10.1258/jhsrp.2008.008055.
[50] Dell’Acqua, F. et al. (2025), The Cybernetic Teammate: A Field Experiment on Generative AI Reshaping Teamwork and Expertise, Elsevier BV, https://doi.org/10.2139/ssrn.5188231.
[54] Dell’Acqua, F. et al. (2023), “Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality”, SSRN Electronic Journal, https://doi.org/10.2139/ssrn.4573321.
[66] Desouza, K. and B. Jacob (2014), “Big Data in the Public Sector: Lessons for Practitioners and Scholars”, Administration & Society, Vol. 49/7, pp. 1043-1064, https://doi.org/10.1177/0095399714555751.
[147] Dieterle, E., C. Dede and M. Walker (2022), “The cyclical ethical effects of using artificial intelligence in education”, AI & SOCIETY, Vol. 39/2, pp. 633-643, https://doi.org/10.1007/s00146-022-01497-w.
[70] Du, M. (2023), “Machine vs. human, who makes a better judgment on innovation? Take GPT-4 for example”, Frontiers in Artificial Intelligence, Vol. 6, https://doi.org/10.3389/frai.2023.1206516.
[129] EC (2025), Study exploring the context, challenges, opportunities, and trends in algorithmic management, European Commission, https://employment-social-affairs.ec.europa.eu/study-exploring-context-challenges-opportunities-and-trends-algorithmic-management_en.
[43] EC (2024), What factors influence perceived artificial intelligence adoption by public managers, https://publications.jrc.ec.europa.eu/repository/handle/JRC138684.
[140] Eshelby, L. (2025), Addressing insider threats in the public sector, https://www.openaccessgovernment.org/addressing-insider-threats-in-the-public-sector/187801/.
[97] EU (2024), Regulation (EU) 2024/1689 laying down harmonised rules on artificial, European Union, https://eur-lex.europa.eu/eli/reg/2024/1689/oj.
[110] Fazlioglu, M. (2024), Consumer Perspectives of Privacy and Artificial Intelligence, https://iapp.org/resources/article/consumer-perspectives-of-privacy-and-ai/.
[104] Feldstein, S. (2022), AI & Big Data Global Surveillance Index (2022 updated), https://doi.org/10.17632/gjhf5y4xjp.4.
[26] Filippucci, F., P. Gal and M. Schief (2024), “Miracle or Myth? Assessing the macroeconomic productivity gains from Artificial Intelligence”, OECD Artificial Intelligence Papers, No. 29, OECD Publishing, Paris, https://doi.org/10.1787/b524a072-en.
[75] Fitkov-Norris, E. and N. Kocheva (2025), “Leveraging AI for strategic foresight: Unveiling future horizons”, in Improving and Enhancing Scenario Planning, Edward Elgar Publishing, https://doi.org/10.4337/9781035310586.00023.
[56] Flavián, C. and L. Casaló (2021), “Artificial intelligence in services: current trends, benefits and challenges”, The Service Industries Journal, Vol. 41/13-14, pp. 853–859, https://doi.org/10.1080/02642069.2021.1989177.
[25] Gartner (2024), Gartner 2024 Hype Cycle for Emerging Technologies Highlights Developer Productivity, Total Experience, AI and Security, https://www.gartner.com/en/newsroom/press-releases/2024-08-21-gartner-2024-hype-cycle-for-emerging-technologies-highlights-developer-productivity-total-experience-ai-and-security.
[125] Gerlich, M. (2025), “AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking”, Societies, Vol. 15/1, p. 6, https://doi.org/10.3390/soc15010006.
[58] Giest, S. (2017), “Big data for policymaking: fad or fasttrack?”, Policy Sciences, Vol. 50/3, pp. 367-382, https://doi.org/10.1007/s11077-017-9293-1.
[131] Gmyrek, P., J. Berg and D. Bescond (2023), Generative AI and Jobs: A global analysis of potential effects on job quantity and quality, ILO, https://doi.org/10.54394/FHEM8239.
[120] Goldman, S. (2023), OpenAI has grand ‘plans’ for AGI. Here’s another way to read its manifesto, https://venturebeat.com/ai/openai-has-grand-plans-for-agi-heres-another-way-to-read-its-manifesto-the-ai-beat/.
[139] Gopireddy, R. (2024), Securing AI Systems: Protecting Against Adversarial Attacks and Data Poisoning, https://jsaer.com/download/vol-11-iss-5-2024/JSAER2024-11-5-276-281.pdf.
[98] Government of Korea (2024), A New Chapter in the Age of AI: Basic Act on AI Passed at the National Assembly‘s Plenary Session, https://www.msit.go.kr/eng/bbs/view.do?bbsSeqNo=42&mId=4&mPid=2&nttSeqNo=1071.
[68] Green, B. (2022), “The flaws of policies requiring human oversight of government algorithms”, Computer Law & Security Review, Vol. 45, p. 105681, https://doi.org/10.1016/j.clsr.2022.105681.
[163] Grzegorzek, J. (2024), Digital Taylorism: The Use of Data to Monitor Employees, https://medium.com/%40JerryGrzegorzek/digital-taylorism-the-use-of-data-to-monitor-employees-582b331d970a.
[77] Gupta, T. and S. Roy (2024), “Applications of Artificial Intelligence in Disaster Management”, Proceedings of the 2024 10th International Conference on Computing and Artificial Intelligence, pp. 313-318, https://doi.org/10.1145/3669754.3669802.
[30] Hampole, M. et al. (2025), Artificial Intelligence and the Labor Market, National Bureau of Economic Research, Cambridge, MA, https://doi.org/10.3386/w33509.
[64] Höchtl, J., P. Parycek and R. Schöllhammer (2015), “Big data in the policy cycle: Policy decision making in the digital era”, Journal of Organizational Computing and Electronic Commerce, Vol. 26/1-2, pp. 147-169, https://doi.org/10.1080/10919392.2015.1125187.
[91] Ho, D. (2023), Opportunities and Risks of Artificial Intelligence in the Public Sector, https://law.stanford.edu/2023/05/25/opportunities-and-risks-of-artificial-intelligence-in-the-public-sector/.
[118] Horowitz, M. (2023), Bending the Automation Bias Curve: A Study of Human and AI-based Decision Making in National Security Contexts, https://arxiv.org/abs/2306.16507.
[23] Horvitz, E. (2014), Reflections and Framing: One-Hundred Year Study on Artificial Intelligence: Reflections and Framing, https://ai100.stanford.edu/reflections-and-framing.
[55] Huang, M. and R. Rust (2021), “Engaged to a Robot? The Role of AI in Service”, Journal of Service Research, Vol. 24/1, pp. 30–41, https://doi.org/10.1177/1094670520902266.
[134] ICO (2023), Joint statement on data scraping and the protection of privacy, https://ico.org.uk/about-the-ico/media-centre/news-and-blogs/2023/08/joint-statement-on-data-scraping-and-data-protection/.
[142] ITU (2023), Measuring digital development: Facts and Figures 2023, https://www.itu.int/en/ITU-D/Statistics/Pages/facts/default.aspx (accessed on July 2024).
[78] Jarrahi, M. et al. (2023), “Artificial intelligence and knowledge management: A partnership between human and AI”, Business Horizons, Vol. 66/1, pp. 87-99, https://doi.org/10.1016/j.bushor.2022.03.002.
[89] Jeevanandam, N. (2024), AI in agriculture in 2025: Transforming Indian farms for a sustainable future, https://indiaai.gov.in/article/ai-in-agriculture-in-2025-transforming-indian-farms-for-a-sustainable-future.
[49] Jones, C. (2022), “The Past and Future of Economic Growth: A Semi-Endogenous Perspective”, Annual Review of Economics, Vol. 14/1, pp. 125-152, https://doi.org/10.1146/annurev-economics-080521-012458.
[123] Klingbeil, A., C. Grützner and P. Schrec (2024), Trust and reliance on AI — An experimental study on the extent and costs of overreliance on AI, https://doi.org/10.1016/j.chb.2024.108352 (accessed on September 2024).
[63] Kolkman, D. (2020), “The usefulness of algorithmic models in policy making”, Government Information Quarterly, Vol. 37/3, p. 101488, https://doi.org/10.1016/j.giq.2020.101488.
[59] Kopponen, A. et al. (2024), “Personalised public services powered by AI: the citizen digital twin approach”, in Research Handbook on Public Management and Artificial Intelligence, Edward Elgar Publishing, https://doi.org/10.4337/9781802207347.00020.
[155] KPMG (2025), Trust in artificial intelligence: global insights 2025, https://kpmg.com/au/en/home/insights/2025/04/trust-in-ai-global-insights-2025.html.
[154] Lahusen, C., M. Maggetti and M. Slavkovik (2024), “Trust, trustworthiness and AI governance”, Scientific Reports, Vol. 14/1, https://doi.org/10.1038/s41598-024-71761-0.
[161] Laplante, P. et al. (2020), “Artificial Intelligence and Critical Systems: From Hype to Reality”, Computer, Vol. 53/11, pp. 45-52, https://doi.org/10.1109/mc.2020.3006177.
[144] Larsson, K. (2021), “Digitization or equality: When government automation covers some, but not all citizens”, Government Information Quarterly, Vol. 38/1, p. 101547, https://doi.org/10.1016/j.giq.2020.101547.
[117] Lima, G. et al. (2022), “The Conflict Between Explainable and Accountable Decision-Making Algorithms”, 2022 ACM Conference on Fairness, Accountability, and Transparency, pp. 2103-2113, https://doi.org/10.1145/3531146.3534628.
[157] Longoni, C., L. Cian and E. Kyung (2022), “Algorithmic Transference: People Overgeneralize Failures of AI in the Government”, Journal of Marketing Research, Vol. 60/1, pp. 170-188, https://doi.org/10.1177/00222437221110139.
[19] Lorenz, P., K. Perset and J. Berryhill (2023), “Initial policy considerations for generative artificial intelligence”, OECD Artificial Intelligence Papers, No. 1, OECD Publishing, Paris, https://doi.org/10.1787/fae2d1e6-en.
[72] Ludwig, J. and S. Mullainathan (2022), “Algorithmic Behavioral Science: Machine Learning as a Tool for Scientific Discovery”, SSRN Electronic Journal, https://doi.org/10.2139/ssrn.4164272.
[34] Manning, B., K. Zhu and J. Horton (2024), Automated Social Science: Language Models as Scientist and Subjects, https://arxiv.org/abs/2404.11794.
[141] Mariani, J., P. Kishnani and A. Alibage (2025), Government’s less trodden path to scaling generative AI, https://www2.deloitte.com/us/en/insights/industry/public-sector/government-faces-challenges-with-generative-ai-adoption.html.
[37] Mellouli, S., M. Janssen and A. Ojo (2024), “Introduction to the Issue on Artificial Intelligence in the Public Sector: Risks and Benefits of AI for Governments”, Digital Government: Research and Practice, Vol. 5/1, pp. 1-6, https://doi.org/10.1145/3636550.
[126] Meng, J. (2024), AI emerges as the frontier in behavioral science, https://doi.org/10.1073/pnas.2401336121.
[36] Mergel, I. et al. (2023), “Implementing AI in the public sector”, Public Management Review, pp. 1-14, https://doi.org/10.1080/14719037.2023.2231950.
[151] Milanez, A. (2023), “The impact of AI on the workplace: Evidence from OECD case studies of AI implementation”, OECD Social, Employment and Migration Working Papers, No. 289, OECD Publishing, Paris, https://doi.org/10.1787/2247ce58-en.
[127] Milanez, A., A. Lemmens and C. Ruggiu (2025), “Algorithmic management in the workplace: New evidence from an OECD employer survey”, OECD Artificial Intelligence Papers, No. 31, OECD Publishing, Paris, https://doi.org/10.1787/287c13c4-en.
[60] Mills, S., S. Costa and C. Sunstein (2023), “AI, Behavioural Science, and Consumer Welfare”, J Consum Policy, Vol. 46, pp. 387–400, https://doi.org/10.1007/s10603-023-09547-6.
[105] Nikiforova, A. et al. (2023), “Towards High-Value Datasets Determination for Data-Driven Development: A Systematic Literature Review”, in Lecture Notes in Computer Science, Electronic Government, Springer Nature Switzerland, Cham, https://doi.org/10.1007/978-3-031-41138-0_14.
[22] NIST (2025), Technical Blog: Strengthening AI Agent Hijacking Evaluations, https://www.nist.gov/news-events/news/2025/01/technical-blog-strengthening-ai-agent-hijacking-evaluations.
[51] Noy, S. and W. Zhang (2023), “Experimental evidence on the productivity effects of generative artificial intelligence”, Science, Vol. 381/6654, pp. 187-192, https://doi.org/10.1126/science.adh2586.
[92] OECD (2025), How Innovation Ecosystems Foster Citizen Participation Using Emerging Technologies in Portugal, Spain and the Netherlands, OECD Public Governance Reviews, OECD Publishing, Paris, https://doi.org/10.1787/2cb37a30-en.
[81] OECD (2025), “Sharing trustworthy AI models with privacy-enhancing technologies”, OECD Artificial Intelligence Papers, No. 38, OECD Publishing, Paris, https://doi.org/10.1787/a266160b-en.
[164] OECD (2025), “Towards a common reporting framework for AI incidents”, OECD Artificial Intelligence Papers, No. 34, OECD Publishing, Paris, https://doi.org/10.1787/f326d4ac-en.
[5] OECD (2024), “2023 OECD Digital Government Index: Results and key findings”, OECD Public Governance Policy Papers, No. 44, OECD Publishing, Paris, https://doi.org/10.1787/1a89ed5e-en.
[132] OECD (2024), “AI, data governance and privacy: Synergies and areas of international co-operation”, OECD Artificial Intelligence Papers, No. 22, OECD Publishing, Paris, https://doi.org/10.1787/2476b1a4-en.
[14] OECD (2024), “Assessing potential future artificial intelligence risks, benefits and policy imperatives”, OECD Artificial Intelligence Papers, No. 27, OECD Publishing, Paris, https://doi.org/10.1787/3f4e3dfb-en.
[17] OECD (2024), “Assessing potential future artificial intelligence risks, benefits and policy imperatives”, OECD Artificial Intelligence Papers, No. 27, OECD Publishing, Paris, https://doi.org/10.1787/3f4e3dfb-en.
[166] OECD (2024), “Defining AI incidents and related terms”, OECD Artificial Intelligence Papers, No. 16, OECD Publishing, Paris, https://doi.org/10.1787/d1a8d965-en.
[7] OECD (2024), “Explanatory memorandum on the updated OECD definition of an AI system”, OECD Artificial Intelligence Papers, No. 8, OECD Publishing, Paris, https://doi.org/10.1787/623da898-en.
[95] OECD (2024), Facts not Fakes: Tackling Disinformation, Strengthening Information Integrity, OECD Publishing, Paris, https://doi.org/10.1787/d909ff7a-en.
[108] OECD (2024), Global Trends in Government Innovation 2024: Fostering Human-Centred Public Services, OECD Public Governance Reviews, OECD Publishing, Paris, https://doi.org/10.1787/c1bc19c3-en.
[13] OECD (2024), “Governing with Artificial Intelligence: Are governments ready?”, OECD Artificial Intelligence Papers, No. 20, OECD Publishing, Paris, https://doi.org/10.1787/26324bc2-en.
[61] OECD (2024), Modernising Access to Social Protection: Strategies, Technologies and Data Advances in OECD Countries, OECD Publishing, Paris, https://doi.org/10.1787/af31746d-en.
[11] OECD (2024), OECD Artificial Intelligence Review of Germany, OECD Publishing, Paris, https://doi.org/10.1787/609808d6-en.
[94] OECD (2024), OECD Digital Economy Outlook 2024 (Volume 1): Embracing the Technology Frontier, OECD Publishing, Paris, https://doi.org/10.1787/a1689dc5-en.
[16] OECD (2024), OECD Digital Economy Outlook 2024 (Volume 1): Embracing the Technology Frontier, OECD Publishing, Paris, https://doi.org/10.1787/a1689dc5-en.
[4] OECD (2024), OECD Survey on Drivers of Trust in Public Institutions – 2024 Results: Building Trust in a Complex Policy Environment, OECD Publishing, Paris, https://doi.org/10.1787/9a20554b-en.
[6] OECD (2024), Recommendation of the Council on Artificial Intelligence, https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449.
[33] OECD (2023), Artificial Intelligence in Science: Challenges, Opportunities and the Future of Research, OECD Publishing, Paris, https://doi.org/10.1787/a8d820bd-en.
[82] OECD (2023), “Emerging privacy-enhancing technologies: Current regulatory and policy approaches”, OECD Digital Economy Papers, No. 351, OECD Publishing, Paris, https://doi.org/10.1787/bf121be4-en.
[40] OECD (2023), Global Trends in Government Innovation 2023, OECD Public Governance Reviews, OECD Publishing, Paris, https://doi.org/10.1787/0655b570-en.
[27] OECD (2023), OECD Employment Outlook 2023: Artificial Intelligence and the Labour Market, OECD Publishing, Paris, https://doi.org/10.1787/08785bba-en.
[90] OECD (2023), “The state of implementation of the OECD AI Principles four years on”, OECD Artificial Intelligence Papers, No. 3, OECD Publishing, Paris, https://doi.org/10.1787/835641c9-en.
[112] OECD (2022), Emerging future AI risks, OECD, https://wp.oecd.ai/app/uploads/2023/03/OECD-Foresight-workshop-notes-1.pdf.
[96] OECD (2022), “Measuring the environmental impacts of artificial intelligence compute and applications: The AI footprint”, OECD Digital Economy Papers, No. 341, OECD Publishing, Paris, https://doi.org/10.1787/7babf571-en.
[42] OECD (2022), “OECD Framework for the Classification of AI systems”, OECD Digital Economy Papers, No. 323, OECD Publishing, Paris, https://doi.org/10.1787/cb6d9eca-en.
[85] OECD (2021), Data-Driven, Information-Enabled Regulatory Delivery, OECD Publishing, Paris, https://doi.org/10.1787/8f99ec8c-en.
[103] OECD (2020), “Dealing with digital security risk during the Coronavirus (COVID-19) crisis”, OECD Policy Responses to Coronavirus (COVID-19), OECD Publishing, Paris, https://doi.org/10.1787/c9d3fe8e-en.
[2] OECD (2020), Embracing Innovation in Government - Global Trends 2020: Innovative responces to the COVID-19 crisis, OECD Publishing, https://trends.oecd-opsi.org/trend-reports/innovative-covid-19-solutions/.
[3] OECD (2020), “The OECD Digital Government Policy Framework: Six dimensions of a Digital Government”, OECD Public Governance Policy Papers, No. 02, OECD Publishing, Paris, https://doi.org/10.1787/f64fed2a-en.
[67] OECD (2019), The Path to Becoming a Data-Driven Public Sector, OECD Digital Government Studies, OECD Publishing, Paris, https://doi.org/10.1787/059814a7-en.
[84] OECD (2018), OECD Regulatory Enforcement and Inspections Toolkit, OECD Publishing, Paris, https://doi.org/10.1787/9789264303959-en.
[86] OECD (2018), Open Government Data Report: Enhancing Policy Maturity for Sustainable Impact, OECD Digital Government Studies, OECD Publishing, Paris, https://doi.org/10.1787/9789264305847-en.
[106] OECD (2017), Recommendation of the Council on Health Data Governance, https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0433.
[1] OECD (2014), Recommendation of the Council on Digital Government Strategies, OECD Publishing, https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0406.
[107] OECD (1980), Recommendation of the Council concerning Guidelines Governing the Protection of Privacy and Transborder Flows of Personal Data, https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0188.
[133] OECD (forthcoming), Mapping Relevant Data Collection Mechanisms for AI Training, OECD Publishing.
[18] OECD.AI (2023), OECD Expert Group on AI Futures – Meeting 2 (18th & 20th September 2023), https://wp.oecd.ai/app/uploads/2024/01/Expert-Group-on-AI-Futures-Meeting-2-Summary.pdf.
[162] OECD.AI (2023), What do you see as the as the most significant potential benefits and risks of AI 10+ years from now?, https://oecd.ai/en/network-of-experts/ai-futures/discussions/future-benefits-risks.
[10] OECD/CAF (2022), The Strategic and Responsible Use of Artificial Intelligence in the Public Sector of Latin America and the Caribbean, OECD Public Governance Reviews, OECD Publishing, Paris, https://doi.org/10.1787/1f334543-en.
[12] OECD/UNESCO (2024), G7 Toolkit for Artificial Intelligence in the Public Sector, OECD Publishing, Paris, https://doi.org/10.1787/421c1244-en.
[121] Olson, P. (2023), Don’t Go Down That AI Longtermism Rabbit Hole, https://www.bloomberg.com/opinion/articles/2023-05-19/ai-longtermism-alarmists-are-dragging-us-all-down-existential-rabbit-hole.
[160] Pahlka, J. (2024), AI meets the cascade of rigidity, https://www.niskanencenter.org/ai-meets-the-cascade-of-rigidity/.
[122] Passi, S. and M. Vorvoreanu (2022), Overreliance on AI: Literature review, https://www.microsoft.com/en-us/research/publication/overreliance-on-ai-literature-review/ (accessed on September 2024).
[149] Peixoto, T., O. Canuto and L. Jordan (2024), AI and the Future of Government: Unexpected Effects and Critical Challenges, https://www.policycenter.ma/publications/ai-and-future-government-unexpected-effects-and-critical-challenges.
[44] Pencheva, I., M. Esteve and S. Mikhaylov (2018), “Big Data and AI – A transformational shift for government: So, what next for research?”, Public Policy and Administration, Vol. 35/1, pp. 24-44, https://doi.org/10.1177/0952076718780537.
[52] Peng, S. et al. (2023), The Impact of AI on Developer Productivity: Evidence from GitHub Copilot, https://arxiv.org/abs/2302.06590.
[146] Perry, A. and N. Turner Lee (2019), AI is coming to schools, and if we’re not careful, so will its biases, https://www.brookings.edu/articles/ai-is-coming-to-schools-and-if-were-not-careful-so-will-its-biases/.
[21] Purdy, M. (2024), What Is Agentic AI, and How Will It Change Work?, https://hbr.org/2024/12/what-is-agentic-ai-and-how-will-it-change-work.
[109] Rainie, L. and J. Anderson (2024), Experts Imagine the Impact of Artificial Intelligence by 2040, https://imaginingthedigitalfuture.org/wp-content/uploads/2024/02/AI2040-FINAL-White-Paper-2-2.29.24.pdf.
[148] Röttger, P. et al. (2024), “SafetyPrompts: a Systematic Review of Open Datasets for Evaluating and Improving Large Language Model Safety”, arXiv.org, https://doi.org/10.48550/arXiv.2404.05399.
[116] Russell, S. (2019), Human Compatible: Artificial Intelligence and the Problem of Control, Viking.
[102] Saheb, T. (2022), “Ethically contentious aspects of artificial intelligence surveillance: a social science perspective”, AI and Ethics, Vol. 3/2, pp. 369-379, https://doi.org/10.1007/s43681-022-00196-y.
[137] Salem, A. et al. (2018), ML-Leaks: Model and Data Independent Membership Inference Attacks and Defenses on Machine Learning Models, https://arxiv.org/abs/1806.01246.
[41] Santiso, C. (2023), Public Governance in the Age of Artificial Intelligence, https://www.chandlerinstitute.org/governancematters/public-governance-in-the-age-of-artificial-intelligence.
[38] Santos, R. et al. (2024), “The use of AI in government and its risks: lessons from the private sector”, Transforming Government: People, Process and Policy, https://doi.org/10.1108/tg-02-2024-0038.
[80] Sanzogni, L., G. Guzman and P. Busch (2017), “Artificial intelligence and knowledge management: questioning the tacit dimension”, Prometheus, Vol. 35, pp. 37-56, https://doi.org/10.1080/08109028.2017.1364547.
[47] Sapci, A. and H. Sapci (2019), “Innovative Assisted Living Tools, Remote Monitoring Technologies, Artificial Intelligence-Driven Solutions, and Robotic Systems for Aging Societies: Systematic Review”, JMIR Aging, Vol. 2/2, p. e15429, https://doi.org/10.2196/15429.
[101] Shane, J. (2019), You Look Like a Thing and I Love You: How Artificial Intelligence Works and Why It’s Making the World a Weirder Place, https://www.hachettebookgroup.com/titles/janelle-shane/you-look-like-a-thing-and-i-love-you/9780316525220/.
[143] Singh, V. and J. Chobotaru (2022), “Digital Divide: Barriers to Accessing Online Government Services in Canada”, Administrative Sciences, Vol. 12/3, p. 112, https://doi.org/10.3390/admsci12030112.
[136] Staab, R. et al. (2023), Beyond Memorization: Violating Privacy Via Inference with Large Language, https://arxiv.org/abs/2310.07298.
[73] Sunstein, C. (2023), “The use of algorithms in society”, The Review of Austrian Economics, Vol. 37/4, pp. 399-420, https://doi.org/10.1007/s11138-023-00625-z.
[76] Sun, W., P. Bocchini and B. Davison (2020), “Applications of artificial intelligence for disaster management”, Natural Hazards, Vol. 103/3, pp. 2631-2689, https://doi.org/10.1007/s11069-020-04124-3.
[113] Tegmark, M. (2017), Life 3.0: Being Human in the Age of Artificial Intelligence, Penguin, https://mitpressbookstore.mit.edu/book/9781101970317.
[53] The Economist (2025), How AI will divide the best from the rest, https://www.economist.com/finance-and-economics/2025/02/13/how-ai-will-divide-the-best-from-the-rest.
[93] Tse, T. and S. Karimov (2022), Decision-making risks slow down the use of artificial intelligence in business, https://blogs.lse.ac.uk/businessreview/2022/05/18/decision-making-risks-slow-down-the-use-of-artificial-intelligence-in-business-1/.
[9] Ubaldi, B. et al. (2019), “State of the art in the use of emerging technologies in the public sector”, OECD Working Papers on Public Governance, No. 31, OECD Publishing, Paris, https://doi.org/10.1787/932780bc-en.
[128] UC Berkeley (2021), Positive AI Economic Futures, World Economic Forum, https://www.weforum.org/reports/positive-ai-economic-futures.
[111] UN (2024), Governing AI for Humanity, https://www.un.org/sites/un2.un.org/files/governing_ai_for_humanity_final_report_en.pdf.
[57] UN (2022), E-Government Survey 2022: The Future of Digital Government, United Nations, https://desapublications.un.org/sites/default/files/publications/2022-09/Web%20version%20E-Government%202022.pdf.
[145] UNESCO (2019), Artificial Intelligence in Education: Challenges and Opportunities for Sustainable Development, https://www.gcedclearinghouse.org/sites/default/files/resources/190175eng.pdf.
[83] US GAO (2024), Fraud Risk Management: 2018-2022 Data Show Federal Government Loses an Estimated $233 Billion to $521 Billion Annually to Fraud, Based on Various Risk Environments, https://www.gao.gov/products/gao-24-105833.
[87] USGS (2024), Landsat’s Economic Value increased to $25.6 Billion in 2023, https://www.usgs.gov/news/featured-story/landsats-economic-value-increases-256-billion-2023.
[62] Valle-Cruz, D. et al. (2020), “Assessing the public policy-cycle framework in the age of artificial intelligence: From agenda-setting to policy evaluation”, Government Information Quarterly, Vol. 37/4, p. 101509, https://doi.org/10.1016/j.giq.2020.101509.
[99] Valle-Cruz, D., R. Garcia-Contreras and R. Gil-Garcia (2023), “Exploring the negative impacts of artificial intelligence in government: the dark side of intelligent algorithms and cognitive machines”, International Review of Administrative Sciences, https://doi.org/10.1177/002085232311870.
[31] Williams, C. (2025), There will be no immediate productivity boost from AI, https://www.economist.com/the-world-ahead/2024/11/20/there-will-be-no-immediate-productivity-boost-from-ai.
[65] Wirjo, A. et al. (2022), Artificial Intelligence in Economic Policymaking, Policy Brief No. 52, https://www.apec.org/docs/default-source/publications/2022/11/artificial-intelligence-in-economic-policymaking/222_psu_artificial-intelligence-in-economic-policymaking.pdf.
[46] Xu, G., M. Xue and J. Zhao (2023), “The Relationship of Artificial Intelligence Opportunity Perception and Employee Workplace Well-Being: A Moderated Mediation Model”, International Journal of Environmental Research and Public Health, Vol. 20/3, p. 1974, https://doi.org/10.3390/ijerph20031974.
[159] Zehnle, M., C. Hildebrand and A. Valenzuela (2025), “Not all AI is created equal: A meta-analysis revealing drivers of AI resistance across markets, methods, and time”, International Journal of Research in Marketing, https://doi.org/10.1016/j.ijresmar.2025.02.005.
[79] Zhang, Z., L. Wang and C. Lee (2023), “Recent Advances in Artificial Intelligence Sensors”, Advanced Sensor Research, Vol. 2/8, p. 2200072, https://doi.org/10.1002/adsr.202200072.
Notas
Copiar enlace a Notas← 2. Solo en Estados Unidos se han catalogado más de 2 000 casos prácticos en organismos civiles del Gobierno federal (https://github.com/ombegov/2024-Federal-AI-Use-Case-Inventory). Del mismo modo, la Comisión Europea tiene un catálogo de más de 1 300 (https://interoperable-europe.ec.europa.eu/collection/public-sector-tech-watch/cases). En los Gobiernos de América Latina y el Caribe (ALC) se han catalogado más de 700 casos prácticos (https://sistemaspublicos.tech/sistemas-de-ia-en-america-latina).
← 3. Véase https://trends.oecd-opsi.org, https://cross-border.oecd-opsi.org, (OECD, 2023[40]), y (OECD, 2024[108]).
← 4. Véase https://oecd-opsi.org/innovation-tag/artificial-intelligence-ai y https://oecd.ai/en/dashboards/policy-instruments/AI_use_cases_in_the_public_sector.
← 5. Estas conclusiones se basan en una encuesta realizada a 1 000 altos directivos de 20 sectores de 59 países de Asia, Europa y América del Norte.
← 6. A menos que se indique lo contrario, las secciones siguientes sobre los beneficios de la IA, en el sector público, se basan en el análisis de las funciones de los gobiernos y en los casos prácticos presentados en el capítulo 5 del presente informe.
← 7. "Ruido" es también un término utilizado en ML para referirse a "fluctuaciones aleatorias o impredecibles en los datos que interrumpen la capacidad de identificar patrones o relaciones objetivo". El resultado es una menor precisión o fiabilidad de las predicciones o resultados de un modelo". (DataHeroes, 2023[165]). Este no es el concepto de ruido discutido en este capítulo, que se centra en los factores que pueden influir en los seres humanos.
← 8. Para obtener más información sobre este tema, consulte https://www.oecd.org/en/topics/behavioural-science y https://oecd-opsi.org/work-areas/behavioural-insights.
← 10. Véase el Repositorio de riesgos de IA del MIT, una base de datos viva de más de 1.000 riesgos de IA (https://airisk.mit.edu). El Monitor de Incidentes de IA (AIM) de la OCDE documenta los incidentes y peligros de la IA para ayudar a los responsables de la formulación de políticas, a los profesionales de la IA y a todas las partes interesadas de todo el mundo a obtener información valiosa sobre los riesgos y daños de los sistemas de IA (https://oecd.ai/incidents).
← 12. El sobreajuste se refiere a los casos en los que el algoritmo es demasiado específico en la medida en que captura y se centra demasiado en el ruido y las anomalías (Berryhill et al., 2019[8]), Durante la fase de entrenamiento, un modelo de sobreajuste puede lograr un alto nivel de precisión y los problemas pueden pasar desapercibidos. Sin embargo, una vez que el modelo entrenado se expone a nuevos datos, la precisión puede caer gravemente.
← 13. El índice no distingue entre usos legítimos e ilegítimos de las técnicas de vigilancia con IA. Más bien, el propósito de la investigación es mostrar cómo las nuevas capacidades de vigilancia están transformando la capacidad de los Gobiernos para monitorear y rastrear a individuos o grupos.
← 14. Taylorismo digital se refiere a la adaptación moderna de los principios de gestión científica de Frederick Winslow Taylor, utilizando tecnologías digitales para monitorear y controlar las actividades de los empleados con el objetivo de mejorar la eficiencia y la productividad. Este enfoque implica desglosar tareas complejas en componentes más simples, estandarizar los flujos de trabajo y emplear métodos basados en datos para supervisar y evaluar el rendimiento de los trabajadores. Si bien su objetivo es optimizar las operaciones organizacionales, los críticos argumentan que puede conducir a una menor autonomía de los trabajadores y una mayor vigilancia en el lugar de trabajo (Grzegorzek, 2024[163]).
← 16. La Dirección de Ciencia, Tecnología e Innovación (STI) de la OCDE tiene una línea de trabajo dedicada a la seguridad digital. Consulte https://www.oecd.org/en/topics/policy-issues/digital-security para obtener más información.
← 17. Un incidente de IA es un evento, circunstancia o serie de eventos en los que el desarrollo, uso o mal funcionamiento de uno o más sistemas de IA conduce directa o indirectamente a cualquiera de los siguientes daños: (a) lesiones o daños a la salud de una persona o grupos de personas; (b) interrupción de la gestión y funcionamiento de infraestructuras críticas; (c) violaciones de los derechos humanos o incumplimiento de las obligaciones en virtud de la ley aplicable destinada a proteger los derechos fundamentales, laborales y de propiedad intelectual; o (d) daños a la propiedad, las comunidades o el medio ambiente. Un peligro para la IA es un evento, circunstancia o serie de eventos en los que el desarrollo, uso o mal funcionamiento de uno o más sistemas de IA podría dar lugar de manera plausible a un incidente de IA, es decir, a cualquiera de los siguientes daños: (a) lesiones o daños a la salud de una persona o grupos de personas; (b) trastornos en la gestión y funcionamiento de infraestructuras críticas; (c) violaciones de los derechos humanos o incumplimiento de las obligaciones en virtud de la legislación aplicable destinada a proteger los derechos fundamentales, laborales y de propiedad intelectual; o (d) daños a la propiedad, las comunidades o el medio ambiente. Para obtener más información, consulte https://oecd.ai/incidents-methodology y (OECD, 2025[164]; 2024[166]).