Este capítulo expone cómo los gobiernos pueden aprovechar el potencial de la IA al tiempo que gestionan los riesgos. Establece tres pilares —habilitadores, salvaguardas y participación— que juntos conforman el Marco de la OCDE para una IA confiable en el sector público. Los habilitadores incluyen la gobernanza, los datos, la infraestructura digital, las capacidades y el talento, las inversiones con objetivos definidos, la contratación pública y las alianzas; las salvaguardas abarcan instrumentos no vinculantes y vinculantes, la transparencia y la gestión de riesgos, y la supervisión; la participación comprende a la ciudadanía, los servidores públicos y la colaboración transfronteriza. El capítulo aboga por un enfoque sistémico, una aplicación proporcionada y basada en el riesgo de las medidas, y mecanismos prácticos como la experimentación, la evaluación de impacto y las auditorías para apoyar una adopción confiable a gran escala.
Gobernar con la inteligencia artificial
4. Habilitadores, salvaguardas y participación para desbloquear una IA confiable
Copiar enlace a 4. Habilitadores, salvaguardas y participación para desbloquear una IA confiableResumen
Mensajes clave
Copiar enlace a Mensajes claveLas iniciativas en materia de gobernanza y política pública pueden ayudar a las administraciones públicas a aprovechar al máximo el potencial de la IA y abordar sus diversos riesgos y desafíos de implementación. Los gobiernos deben adoptar un enfoque sistémico y procurar anticiparse a los cambios futuros. Las medidas propuestas deben fortalecer los habilitadores, establecer salvaguardas y promover la participación con actores clave.
Los habilitadores incluyen mecanismos y procesos clave de gobernanza; una comprensión clara del papel de los datos como base de la IA; el desarrollo de infraestructuras digitales; el fortalecimiento de capacidades y talento; inversiones en tecnología orientadas a objetivos definidos; el uso eficaz de la contratación pública; y la ampliación del potencial de la IA mediante alianzas.
Las salvaguardas pueden ser instrumentos de política no vinculantes y vinculantes; procesos de transparencia; y mecanismos de rendición de cuentas.
La participación con actores clave puede adoptar la forma de asambleas ciudadanas, interacción con servidores públicos, involucrar a las personas usuarias en el desarrollo de la IA y colaboración transfronteriza.
En conjunto, estas medidas de política conforman un marco para una IA confiable que puede ayudarle al sector público a alinear sus acciones con los Principios de IA de la OCDE. La labor futura de la OCDE abordará elementos del marco con mayor profundidad.
Medidas de política para liberar el potencial de la IA
Copiar enlace a Medidas de política para liberar el potencial de la IAMientras que el resto de este informe analiza las oportunidades y los desafíos de los gobiernos a la hora de gobernar con IA, este capítulo se centra en cómo gobernar la IA exitosamente en el sector público. Para aprovechar al máximo el potencial de la IA y, al mismo tiempo, mitigar los riesgos, los gobiernos deben adoptar un enfoque intencionado, estratégico y responsable. Este enfoque debería estar en consonancia con los Principios de IA de la OCDE, pero ser específico al contexto y adecuado para el desarrollo y uso de la IA por y para las administraciones públicas. En particular, las administraciones deben seguir tres líneas de acción:
Fortalecer los habilitadores (por ejemplo, datos de calidad, capacidades digitales y de IA, financiamiento e infraestructura digital) para superar los principales desafíos en la aplicación y obtener los resultados esperados
Establecer salvaguardas (por ejemplo, herramientas de transparencia, rendición de cuentas y gestión de riesgos) para anticipar y gestionar los riesgos asociados, y
Fomentar la participación con las actores clave (incluida la ciudadanía) para desarrollar sistemas de IA que tengan en cuenta sus necesidades.
El objetivo de estas acciones es aprovechar las oportunidades y abordar los diversos riesgos y desafíos de implementación asociados a la IA mediante políticas públicas específicas. Por ejemplo, las cuestiones relacionadas con la necesidad de contar con datos suficientes y de calidad se abordan a través de habilitadores centrados en construir una infraestructura y gobernanza de datos sólidas. En otro ejemplo, la orientación insuficiente y las regulaciones obsoletas pueden abordarse a través de salvaguardas como instrumentos de política vinculantes y no vinculantes, incluidos instrumentos regulatorios ágiles, que ayuden a garantizar que la IA funcione dentro de límites éticos, operativos y legales claramente establecidos. La participación activa de las actores clave a lo largo del ciclo de vida del sistema de IA (desarrollo, despliegue y uso de tecnologías de IA) y del ciclo de políticas (para diseñar, implementar y evaluar la gobernanza y las políticas de IA) puede enriquecer la comprensión, las actitudes y los comportamientos de las partes interesadas, incluida la ciudadanía, y alinear los avances tecnológicos y de gobernanza con las necesidades de la sociedad.
Las secciones siguientes abordan los principales puntos de atención para que los gobiernos creen un entorno que permita el uso estratégico y responsable de la IA en todos los sistemas y funciones gubernamentales. Proporcionan un análisis exhaustivo de acciones y prioridades específicas en los tres ámbitos. En cada sección se describen las principales opciones de política pública que los gobiernos deben tener en cuenta para adoptar un enfoque coherente y sostenible. Los gobiernos deben considerar estas opciones a la luz de su propio contexto, incluida la madurez del gobierno digital. Por ejemplo, en lugar de intentar poner en marcha todos los temas debatidos a la vez, los gobiernos podrían considerar hojas de ruta progresivas de gobernanza y adopción de la IA basadas en capacidades institucionales, culturales y tecnológicas.
Un enfoque holístico basado en sistemas puede maximizar el valor de la IA en el sector público
Al establecer los habilitadores, salvaguardas y mecanismos de participación analizados en este capítulo, los gobiernos deben adoptar un enfoque sistémico de la IA y tratar de comprender y abordar los problemas públicos como parte de un sistema más amplio e interconectado, en lugar de considerarlos de forma aislada (OECD, 2017[1]). Tradicionalmente, los responsables de las políticas públicas han abordado los problemas sociales a través de intervenciones discretas superpuestas, construyendo una relación de "causa y efecto". Sin embargo, estas intervenciones pueden trasladar las consecuencias de una parte del sistema a otra, simplemente abordando los síntomas e ignorando las causas. La IA representa una oportunidad para reimaginar el funcionamiento del gobierno, tanto en operaciones internas como de servicios públicos. Los gobiernos deben pensar más allá de cómo la IA puede encajar en los sistemas y estructuras gubernamentales existentes; deben pensar en cómo la IA puede contribuir a repensar por completo los procesos y sistemas; de lo contrario, corren el riesgo de simplemente automatizar la ineficiencia y reforzar aún más los incentivos y los enfoques de gobernanza desalineados. Las prácticas emergentes pueden ayudar, como las "auditorías de fricción", que son evaluaciones conductuales estructuradas para identificar fricciones que reducen la probabilidad de que las personas completen un proceso o realicen un esfuerzo psicológico indebido (OECD, 2024[2]). La OCDE ha creado una línea de trabajo dedicada a enfoques sistémicos que pueden ser de gran ayuda1.
Reconocer el potencial de los cambios futuros y tratar de anticiparse a ellos
Todavía hay mucho que aprender sobre la IA y mucho se desconoce sobre su evolución en curso. El establecimiento de habilitadores, salvaguardas y mecanismos de participación que se tratan en este capítulo solo puede tener en cuenta los conocimientos actuales, lo que se sabe sobre los usos y las implicancias de la IA actual y sobre el potencial para el futuro. Sin embargo, existen importantes incógnitas que solo se resolverán con el tiempo a medida que la tecnología se desarrolle y se exploren usos potenciales. La IA en el gobierno será un proceso continuo de descubrimiento, con desarrollos bienvenidos y no bienvenidos, y evoluciones inesperadas o no deseadas. Los gobiernos deben adoptar un enfoque ágil y adaptable para adaptarse a las nuevas oportunidades y a los cambios de comportamiento. Muchas tareas que hoy no puede abordar la IA probablemente se vuelvan factibles en el futuro. Las estrategias y los marcos de IA deben ser lo suficientemente flexibles como para evolucionar con las capacidades y los contextos cambiantes. Los gobiernos deben mejorar su participación temprana con señales débiles que indiquen cómo puede transcurrir el futuro. Esto les permitirá comprender mejor dónde y cuándo intervenir, sin esperar a que los procesos y las tendencias se consoliden y, por lo tanto, resulten costosos y difíciles de modificar.
Estas consideraciones son pertinentes no solo para la gobernanza de la IA, sino también para su uso en la administración pública. Los casos de uso analizados en este informe (que se analizan con mayor profundidad en el Capítulo 5 y se sintetizan en el Capítulo 2) suelen representar mejoras graduales y aumentos de productividad. Sin embargo, esto no debería ocultar que los usos emergentes o futuros de la IA podrían ser completamente nuevos o permitir tareas antes imposibles, poco prácticas o incluso impensables, generando nuevas oportunidades y riesgos para el gobierno. Esto puede dar lugar a casos de uso y enfoques de gobernanza que tendrán que crearse, reinventarse o detenerse. Los esfuerzos de la OCDE en materia de gobernanza anticipatoria de la innovación (AIG) y prospectiva estratégica pueden ayudar a los gobiernos a comprender y configurar mejor los futuros potenciales de la IA2.
Fortalecimiento de habilitadores para apoyar la adopción de una IA confiable
Copiar enlace a Fortalecimiento de habilitadores para apoyar la adopción de una IA confiableLos habilitadores son elementos y recursos fundamentales necesarios para la implementación de la IA en el gobierno3. Crean un entorno en el que los servidores públicos cualificados pueden diseñar e implementar la IA de forma eficaz y confiable. Su apoyo práctico permite a las instituciones gubernamentales aprovechar plenamente el potencial de la IA. En las siguientes secciones se examinan siete habilitadores claves: gobernanza, datos (incluidos datos abiertos gubernamentales), infraestructura digital, competencias y talento, inversiones en IA, contratación pública y alianzas con actores no gubernamentales. Estos fueron definidos inicialmente por la OCDE en 2024 ([3]) y se desarrollan en mayor medida en las secciones siguientes. Cada sección analiza las opciones de política que pueden adoptar los gobiernos para implementar estos habilitadores en sus contextos, basándose en las mejores prácticas internacionales.
Establecimiento de mecanismos y procesos clave de gobernanza
Los gobiernos están acelerando la adopción de la IA y, en la mayoría de los casos, han incluido sus objetivos en las estrategias nacionales de IA. Sin embargo, en la práctica, esta adopción suele ser fragmentada a nivel estratégico, sin establecer mecanismos de gobernanza integrales y sólidos que garanticen el uso responsable, el impacto a largo plazo y la sostenibilidad de la IA. A medida que la IA se vaya integrando cada vez más en las operaciones gubernamentales, deben establecerse a nivel nacional mecanismos de gobernanza sólidos para garantizar un uso confiable, sostenible y eficaz de la IA. También pueden ofrecer una visión clara de los beneficios de la IA para recabar apoyo dentro y fuera del gobierno.
Un liderazgo sólido para lograr una visión cohesionada
Un liderazgo sólido es un factor crítico para lograr la adopción de la IA en el gobierno. Es fundamental para establecer el tono correcto por parte de los más altos niveles de gobierno y comunicar activamente los beneficios potenciales de la IA (Berryhill et al., 2019[4]). Si bien es fundamental establecer estrategias y principios que ayuden a garantizar una adopción confiable de la IA, un liderazgo sólido y eficaz puede crear una visión coherente de IA y establecer un "tono en la cima" que genere confianza en la IA, tanto dentro como fuera del gobierno. Por ejemplo, en el Reino Unido, los últimos dos primeros ministros, Rishi Sunak y Keir Starmer, han defendido la adopción de la IA tanto dentro como fuera del gobierno. Bajo el liderazgo de Sunak, el Reino Unido catalizó la atención mundial y la colaboración internacional en materia de IA al convocar la primera Cumbre Mundial sobre IA en noviembre de 2023, con eventos posteriores organizados por Corea y Francia. Cada una de ellas ha concluido con una declaración firmada por muchos gobiernos en la que se describen los compromisos relacionados con la IA4. Durante el mandato de Sunak, también se puso en marcha la Incubadora de IA (i.AI) del Reino Unido, más enfocada en el gobierno y cuyo objetivo es mejorar vidas, impulsar el crecimiento y ofrecer mejores servicios públicos. Bajo el actual liderazgo del primer ministro Starmer, el Reino Unido (2025[5]) lanzó el manual de IA para el Gobierno del Reino Unido (Recuadro 4.2) y presentó un plan ambicioso para usar la IA en "remodelar el estado para que funcione para los trabajadores", incluso mediante la creación de 2 000 aprendices de tecnología de IA en el gobierno. Por último, con el fin de garantizar un liderazgo sólido en todas las organizaciones gubernamentales del Reino Unido, (2025[6]) "el plan para un gobierno digital moderno" exige que todas las organizaciones del sector público incluyan a un líder digital en su comité ejecutivo para 2026.
Quienes están en la cima tienen el poder de establecer una dirección estratégica que pueda permear los niveles inferiores, ayudando a enmarcar el uso de la IA dentro de la cultura en general. Como se afirma en el Marco de la OCDE para el talento y las competencias digitales en el sector público (2021[7]). Por último, "el liderazgo que cree un entorno propicio para fomentar la transformación digital transmitirá una visión clara del gobierno digital y promoverá activamente sus beneficios. [Estos] líderes estarán comprometidos, serán visibles y accesibles, y empoderarán a sus equipos a través de la descentralización de la toma de decisiones"5. Un estudio de la Comisión Europea (CE) (2024[8]), basado en una encuesta a 576 gestores públicos de siete países, concluyó que el liderazgo puede influir especialmente en la adopción de la IA ofreciendo incentivos o recursos financieros sólidos para poner en marcha iniciativas de IA, y que, en general, los encuestados consideran que el estado actual de estas es insatisfactorio.
Un liderazgo sólido en IA puede fomentar un enfoque "orientado a misiones" para su innovación. Este enfoque hace hincapié en la resolución de problemas, en la que las intervenciones en materia de políticas están diseñadas para movilizar recursos, coordinar a los actores clave y estimular la innovación y la colaboración entre gobiernos y sectores para abordar los desafíos identificados y cumplir con los objetivos establecidos de la misión. Las políticas orientadas a misiones suelen conllevar una combinación de medidas regulatorias, incentivos financieros, financiamiento de la investigación e inversiones específicas para impulsar el progreso hacia la misión. Los líderes juegan un papel crítico al proporcionar una dirección descendente y galvanizar el apoyo para alinear todas las piezas del gobierno para moverse al unísono hacia el mismo objetivo (OECD, 2021[9])6. Algunos gobiernos y organizaciones intergubernamentales han adoptado un enfoque de política de IA orientado a misiones, aunque por lo general su objetivo es catalizar el crecimiento económico en el sector privado (UCL IIPP, 2019[10]; Vinnova, 2022[11]).
Adoptar un enfoque estratégico y dirigido
Los gobiernos pueden implementar estrategias y directrices gubernamentales holísticas sobre IA para identificar y priorizar su uso y desarrollo coherentes, en consonancia con los valores y objetivos generales del gobierno. Por ejemplo, la estrategia nacional de IA de República Dominicana de 2023 (2024[12]) se centra principalmente en la IA en el gobierno. Canadá (2025[13]), Suiza (2025[14]) y Uruguay (2021[15]) han desarrollado una estrategia específica para la IA en el gobierno, y otra está en desarrollo en el Reino Unido (2024[16]). El memorándum de abril de 2025 de Estados Unidos (EE.UU.) sobre "Aceleración del uso federal de la IA a través de la innovación, la gobernanza y la confianza pública", aunque no se denomina "estrategia", se ajusta a muchas de las características de una estrategia que busca impulsar el cambio en todo el gobierno federal y tiene el beneficio añadido de ser de carácter vinculante (Recuadro 4.1). Muchas otras iniciativas tienen objetivos sustantivos para que la IA en el gobierno se integre en estrategias nacionales más amplias. En general, estas estrategias de alto nivel tienden a afectar a muchos de los elementos habilitadores, las salvaguardas, los procesos de participación y los tipos de casos de uso analizados en este informe. También existen estrategias específicas para orientar los esfuerzos de IA en determinadas funciones gubernamentales. Por ejemplo, Francia ha desarrollado una estrategia para el uso de la IA en los RR.HH (véase el Recuadro 5.19 del Capítulo 5), y la política estadounidense mencionada anteriormente concede a los organismos gubernamentales 180 días para desarrollar y publicar su propia estrategia de IA.
Recuadro 4.1. Acelerar el uso de IA por parte del gobierno federal en Estados Unidos
Copiar enlace a Recuadro 4.1. Acelerar el uso de IA por parte del gobierno federal en Estados UnidosEn Estados Unidos, de conformidad con los requisitos de su política sobre IA de 2020, el 3 de abril de 2025, la Oficina de Gestión y Presupuesto de la Casa Blanca (OMB) emitió el memorándum M-25-21 Accelerating Federal Use of AI through Innovation, Governance, and Public Trust (Acelerar el uso federal de la IA a través de la innovación, la gobernanza y la confianza pública). Este último promueve la innovación en IA, la adopción y el uso responsable de la IA y la salvaguardar las protecciones estadounidenses sobre la privacidad, los derechos civiles y las libertades civiles. Según el memorándum entre otras cosas, las agencias deben:
Designar un director de IA (CAIO) que actúe como asesor sénior, promueva los objetivos de la IA de la agencia, coordine los esfuerzos de IA dentro de su agencia y represente a la agencia ante los órganos de coordinación y los foros externos; la OMB se compromete a convocar un Consejo Interinstitucional de la CAIO para apoyar la coordinación con el fin de maximizar la eficiencia.
Rendir cuentas cumpliendo los requisitos de presentación de informes, incluida la actualización de un inventario de casos de uso de IA al menos una vez al año.
Implementar prácticas mínimas de gestión de riesgos para los sistemas de IA que puedan tener impactos significativos cuando se desplieguen ("IA de alto impacto") de una manera proporcional al riesgo anticipado de su uso previsto, como se describe con más detalle (Recuadro 1.3).
Publicar estrategias de IA de las agencias para identificar y eliminar barreras al uso responsable de la IA y lograr mejoras en toda la empresa en la madurez de sus aplicaciones (CFO Act agencies).
Las estrategias deben incluir una evaluación del estado actual de madurez de la IA de la agencia y un plan para lograr sus objetivos de madurez, abordando, entre otras cosas, planes y procesos para desarrollar infraestructuras que permitan la IA (por ejemplo, infraestructuras informáticas de alto rendimiento) a lo largo del ciclo de vida de la IA; garantizar el acceso a datos de calidad; desarrollar la capacidad de la empresa para la innovación en IA; reclutar, contratar, formar, retener y empoderar a una organización lista para la IA y lograr la alfabetización en IA para los no profesionales que participan en la IA; y desarrollar las operaciones, la gobernanza y la infraestructura necesarias para gestionar los riesgos derivados del uso de la IA.
Desarrollar una política de IA generativa que establezca las condiciones para el uso aceptable de la IA generativa en sus misiones y establezca salvaguardias y mecanismos de supervisión adecuados que permitan a la IA generativa ser utilizada en la agencia sin plantear riesgos indebidos.
Compartir proactivamente datos y activos de IA en todo el gobierno federal, incluido el código desarrollado a medida, incluidos los modelos, tanto si la agencia los ha desarrollado como si los ha adquirido, y, en la medida de lo posible, publicar y mantener el código como software de código abierto en un archivo público (se aplican algunas excepciones).
Desarrollar y publicar planes de cumplimiento de la agencia para lograr la coherencia con M-25-21 (que se actualizarán cada dos años).
Revisar y actualizar, cuando sea necesario, las políticas internas sobre infraestructura de TI, datos, ciberseguridad y privacidad para alinearlas con el M-25-21 y otras órdenes ejecutivas y leyes relevantes.
Adquirir responsablemente capacidades de IA (Recuadro 4.7).
Nota: La directiva se aplica generalmente a todos los departamentos y agencias del Poder Ejecutivo, incluidas las agencias regulatorias independientes. Algunas partes del memorándum se aplican únicamente a las agencias de la "CFO Act" (Chief Financial Officers Act de 1990). Los organismos nacionales de inteligencia y el Departamento de Defensa también están excluidos de algunos requisitos. El documento de origen incluye detalles más específicos sobre la aplicabilidad.
En un intento por ir más allá de la estrategia, algunos gobiernos han desarrollado una guía integral. Por ejemplo, además del manual de IA para el Gobierno del Reino Unido (Recuadro 4.2), Nueva Zelanda (2025[18]) ha establecido un marco de IA de servicio público, e Irlanda (2025[19]) ha publicado Directrices para el Uso Responsable de la IA en la Función Pública. Estas orientaciones son útiles no solo para implementar estrategias, sino también para ayudar a superar la aversión al riesgo al implementar leyes y reglamentos más formales (véase el análisis sobre las salvaguardas más adelante), al eliminar la necesidad de que cada organización o equipo haga sus propias interpretaciones. Como afirmó el cofundador de Code for America, "la legislación bien intencionada y bien escrita se origina en la cima de una jerarquía muy alta, y a medida que desciende, la flexibilidad que sus autores pretendían degrada. Las leyes a menudo tienen un efecto completamente diferente de lo que los legisladores pretendían debido a esta cascada de rigidez" (Pahlka, 2024[20]).
Para contrarrestar aún más la aversión al riesgo, estas directrices podrían promover el uso del criterio y la discrecionalidad por parte de servidores públicos experimentados. También podría reconocer que, al igual que con cualquier acción humana, el aprovechamiento de la IA no puede estar libre de riesgos. Se pueden utilizar técnicas como la ciencia del comportamiento para diseñar orientaciones y comunicaciones que ayuden a garantizar el efecto conductual deseado en los usuarios, maximizando el valor de la adopción de la IA y mitigando los riesgos, aumentando la probabilidad de cambios significativos en el comportamiento y la adopción responsable de la IA (OECD, 2021[21])7.
Recuadro 4.2. Manual de inteligencia artificial para el Gobierno del Reino Unido
Copiar enlace a Recuadro 4.2. Manual de inteligencia artificial para el Gobierno del Reino UnidoEl Servicio Digital del Gobierno del Reino Unido (GDS), con el apoyo de diversos departamentos del gobierno central, empresas tecnológicas del sector privado, instituciones académicas y usuarios, publicó el manual en febrero de 2025. Incluye 10 principios, junto con orientaciones sobre varios aspectos.
10 principios que guían la IA en las organizaciones gubernamentales
1. Sabes lo que es la IA y cuáles son sus limitaciones.
2. Utilizas la IA de forma legal, ética y responsable.
3. Sabes cómo usar la IA de forma segura.
4. Tienes un control humano significativo en el momento adecuado.
5. Entiendes cómo gestionar el ciclo de vida de la IA.
6. Utilizas la herramienta adecuada para cada tarea.
7. Eres abierto y colaborativo.
8. Trabajas con compañeros del ámbito comercial desde el principio.
9. Dispones de las habilidades y la experiencia necesarias para implementar y utilizar la IA.
10. Utilizas estos principios junto con las directrices de tu organización y cuentas con las garantías adecuadas.
Explicaciones y directrices
El manual incluye material informativo sobre lo que es la IA, los ámbitos de la IA, las aplicaciones de la IA en el gobierno, las limitaciones, la creación de soluciones de IA, la creación de un equipo, la definición del objetivo, la compra de IA, el uso de la IA de forma segura y responsable, la ética, las consideraciones jurídicas, la protección de datos y la privacidad, la seguridad y la gobernanza. También incluye una serie de casos de uso de IA que ilustran los esfuerzos del mundo real en el gobierno del Reino Unido.
Determinar si la IA es la mejor solución
Deben existir directrices que se centren en determinar si la IA es la mejor solución para un problema determinado, alejándose así del enfoque en la IA. Si bien la IA tiene enormes capacidades, no siempre es la mejor solución y, en muchos casos, es inviable. Un hallazgo clave de un informe reciente del Instituto Ada Lovelace (2025[23]) señala que "existe una sorprendente falta de pruebas sobre la efectividad y el impacto de las herramientas de IA, incluso desde un punto de vista puramente técnico. Evaluar las intervenciones de IA en contexto es crucial para determinar su rendimiento y valor en comparación con los métodos manuales o tradicionales existentes". El trabajo de RAND concluyó que una comprensión inadecuada del problema que debe resolverse y los proyectos que utilizan la IA innecesariamente son dos de los principales factores que impulsan el fracaso de los proyectos de IA (2024[24]; 2025[25]).
Un problema común con la IA es que las personas comienzan con soluciones y luego buscan problemas para que la tecnología los resuelva. En general, los gobiernos deben tratar de comprender los resultados que tanto ellos como sus ciudadanos pretenden alcanzar y los problemas que lo impiden, y centrarse en ellos. Armados con este conocimiento y prioridades, pueden identificar si la IA (o algo más) es la mejor solución para ayudar a lograr estos objetivos (Berryhill et al., 2019[4]; Mulgan, 2019[26]). En consecuencia, los gobiernos necesitan capacidades para identificar y comprender los problemas. También tendrán que aprovechar otros habilitadores presentados en este capítulo, como las competencias de la organización para entender las fortalezas y debilidades de la IA en relación con otras tecnologías y procesos, con el fin de involucrar a los usuarios y entender sus necesidades.
Algunos gobiernos han incorporado consideraciones al respecto en sus directrices para todo el gobierno. Por ejemplo, el manual de IA para el Gobierno del Reino Unido indica que los servidores públicos deben "estar abiertos a la conclusión de que, a veces, la IA no es la mejor solución para su problema: puede resolverse más fácilmente con tecnologías más establecidas". Las directrices para la adjudicación de contratos públicos relacionados con la IA del Reino Unido (2020[27]) recomiendan a los responsables de adquisición de IA que "empiecen con [una] declaración del problema" y articulen "por qué consideran que la IA es relevante para el problema y están abiertos a soluciones alternativas". En Estados Unidos, la guía de IA para el gobierno ([28]) incluye componentes para "centrarse en el problema raíz" y considerar "¿Es la mejor opción para resolver este problema en particular? ¿Se han evaluado soluciones alternativas?"
Un proceso para realizar estas determinaciones podría integrarse como parte de una evaluación de impacto ex ante (véase la sección sobre salvaguardas más adelante en el apartado "Evaluaciones de impacto"), o podría establecerse como un proceso independiente antes de entrar en la cartera de proyectos de IA.
Definir funciones y responsabilidades claras
Los gobiernos deben definir funciones y responsabilidades claras para facilitar el desarrollo coherente, el uso y la posible ampliación de la IA. Estas funciones y responsabilidades deben definirse y acordarse con las partes interesadas pertinentes y asignarse a las instituciones gubernamentales, incorporándolas a los mandatos de las instituciones. Esto permite disponer de una estructura institucional sólida para apoyar la aplicación de las estrategias nacionales dentro de las instituciones y entre ellas, y facilita la rendición de cuentas y la supervisión en toda la administración pública. Varios países europeos están ampliando los mandatos de los ministerios o agencias existentes para garantizar un despliegue coherente de la IA. Algunos ejemplos son el Ministerio de Digitalización y Gobernanza Pública de Noruega y la Secretaría de Estado de Digitalización e IA de España adscrita al Ministerio para la Transformación Digital y de la Función Pública (OECD, 2024[3]). El Reino Unido ha consolidado la mayoría de las funciones y responsabilidades en materia de IA de diferentes sectores en su Departamento de Ciencia, Innovación y Tecnología (DSIT) (OECD/UNESCO, 2024[29]). A nivel individual, el memorándum estadounidense en el Recuadro 4.1 exige que los organismos del gobierno federal designen un CAIO para dirigir sus esfuerzos en materia de IA. Los gobiernos también pueden tener que analizar diferentes funciones y responsabilidades para lograr diversos objetivos estratégicos. Por ejemplo, en Chile y Colombia, las estrategias nacionales de IA definen actores responsables vinculados a cada compromiso tal como se define en la estrategia. Colombia también detalla los plazos en los que los actores responsables deben cumplirlos, así como los indicadores presupuestarios y de seguimiento (OECD/CAF, 2022[30]; CONPES, 2025[31]). Al establecer sus funciones y responsabilidades, los gobiernos deben dejar claro qué entidad o entidades tienen autoridad para establecer políticas sobre el uso de la IA en la administración. De hecho, la labor de la OCDE con los países ha revelado confusión en torno a quién es el responsable de establecer las normas, lo que podría obstaculizar los esfuerzos de transformación digital.
Coordinar los esfuerzos dentro y fuera de la administración pública
Los gobiernos pueden reforzar los esfuerzos de coordinación y colaboración para garantizar un enfoque holístico de la adopción y la gobernanza de la IA. El establecimiento de grupos de trabajo o comités interministeriales puede facilitar la toma de decisiones, la comunicación y la colaboración entre las diferentes instituciones. Estos mecanismos permiten a todos los agentes participar en el establecimiento de objetivos generales y trabajar juntos para alcanzarlos. Por ejemplo, el memorándum de Estados Unidos analizado en el Recuadro 4.1 exige la creación de un Consejo intergubernamental de CAIO. En otro ejemplo, Australia creó un grupo de trabajo temporal sobre IA en el gobierno (septiembre de 2023 a junio de 2024) para desarrollar políticas, normas y directrices que permitan un uso seguro, ético y responsable de la IA en la función pública (OECD, 2024[3])8. A nivel subnacional, en el gobierno de Dubai, en los Emiratos Árabes Unidos, 22 CAIO de todo el gobierno se encargan de dirigir y coordinar los esfuerzos en materia de IA (WAM, 2024[32]).
La coordinación también es importante de forma transversal, en todos los niveles de la administración. Muchas aplicaciones de IA tienen un impacto local significativo, sobre todo en la prestación de servicios públicos y el bienestar social, ya que los gobiernos locales están más cerca de la ciudadanía y los residentes. Sin embargo, sin coordinación, puede producirse una fragmentación de los enfoques de IA. Cuando los municipios y los gobiernos regionales desarrollan soluciones de IA de forma aislada, pueden surgir ineficiencias, duplicaciones de esfuerzos e incoherencias en los marcos de gobernanza y la experiencia del usuario (Verhulst and Sloane, 2020[33]), Del mismo modo, el diseño de estrategias y políticas nacionales sin tener en cuenta las necesidades locales puede dar lugar a enfoques que no se correspondan con las realidades sobre el terreno o que no sean viables. Dinamarca ha tomado medidas para abordar este desafío a través de su nuevo Grupo de Trabajo Digital sobre IA, que está trabajando para ampliar la adopción de la IA en todos los niveles de la administración, garantizando la alineación de las prioridades, los estándares y los enfoques de gobernanza 9. Del mismo modo, en Suecia, AI Sweden y Vinnova pusieron en marcha la iniciativa Colaboración para la IA en los municipios y la sociedad civil (Kraftsamlingen) para ayudar a los municipios y las organizaciones de la sociedad civil a integrar la IA en sus operaciones. Desde 2022, esta iniciativa ha prestado un apoyo personalizado, que incluye orientaciones sobre la adopción de la IA y oportunidades de financiamiento para proyectos concretos, fomentando un ecosistema de IA más coordinado y eficaz entre los gobiernos locales.
Creación de espacios para experimentar
Los gobiernos deben asignar tiempo y espacio para explorar el uso de la IA, ya que tanto la experimentación como el aprendizaje iterativo son cruciales para desarrollar la capacidad en este ámbito (OECD/CAF, 2022[30]). Además de ayudar a promover el aprendizaje y a identificar nuevas posibilidades y enfoques, los entornos controlados para la experimentación y las pruebas de IA facilitan la identificación oportuna de posibles deficiencias técnicas, sesgos de comportamiento tanto de los sistemas de IA como de las personas que los utilizan, y desafíos de gobernanza asociados. Además, a través de la experimentación, los sistemas de IA pueden incubarse hasta que las soluciones sean técnicamente lo suficientemente robustas como para ampliarse. Al hacerlo, también pueden poner de relieve las preocupaciones del público, especialmente mediante pruebas en condiciones casi reales (OECD, 2019[34]). Estos enfoques implican la participación de las partes interesadas durante la fase de desarrollo, la evaluación de las necesidades de los usuarios, la evaluación de la disponibilidad y la calidad de los datos y el seguimiento continuo del progreso de las fases de prototipado y piloto (OECD/UNESCO, 2024[29]). Dichos entornos incluyen centros de innovación, laboratorios y “sandboxes” (o entornos de prueba). Los experimentos pueden operar en "modo de arranque", por lo que se despliegan, evalúan y modifican, luego se escalan o reducen, o se abandonan rápidamente (OECD, 2023[35]). Más allá de la experimentación interna, los gobiernos también pueden trabajar con actores no gubernamentales, como las startups de GovTech, para diseñar y ejecutar experimentos de IA (véase "Recurrir a las startups de GovTech" más adelante).
Además, estos entornos fomentan la colaboración entre el gobierno, el mundo académico y la industria, promoviendo el intercambio de ideas y acelerando el desarrollo de tecnologías de IA. Al simular las condiciones del mundo real, estas instalaciones permiten una validación rigurosa de los sistemas de IA, garantizando que sean robustos, fiables y seguros antes de su despliegue. Este enfoque de las pruebas y la experimentación no solo mejora la efectividad de las soluciones de IA, sino que también genera confianza pública al validar estas tecnologías mediante la identificación temprana y al abordar posibles riesgos, sesgos o ineficiencias antes de su amplio despliegue.
Por ejemplo, la UE, en colaboración con sus Estados miembros, ha puesto en marcha una red de instalaciones permanentes de ensayo y experimentación (TEF), entre ellas CitCom.ai, que se centra en ciudades y comunidades inteligentes. La iniciativa acelera el desarrollo de una IA confiable en la Unión Europea proporcionando a los innovadores —tanto empresas como organismos públicos— acceso a pruebas y experimentos con productos basados en la IA en condiciones reales. Otros ejemplos son:
En Estados Unidos, la Corporación Mitre, un centro de investigación y desarrollo (I+D) financiado por el gobierno, está desarrollando una supercomputadora de IA para alimentar un nuevo entorno de prueba de IA, que será capaz de entrenar nuevos sistemas avanzados de IA específicos del gobierno.10
En el Reino Unido, la Incubadora de IA (i.AI) promueve la experimentación con IA y, en última instancia, su ampliación a través de cuatro enfoques clave: 1) la creación de prototipos para probar y evaluar rápidamente ideas para aplicaciones de IA; 2) la entrega de prototipos exitosos a equipos gubernamentales pertinentes donde puedan tener un impacto; 3) la modularización para compartir el trabajo técnico entre gobiernos, incluido el código de fuente abierta; y 4) la convocatoria y el asesoría para identificar áreas para compartir el aprendizaje y los productos.11
En Francia, ALLiance, una incubadora interministerial de IA puesta en marcha por la Dirección Interministerial de Asuntos Digitales (DINUM) en julio de 2023, es una iniciativa dirigida por el gobierno para estructurar la experimentación y la ampliación de la IA según las funciones centrales del gobierno.12 La incubadora ALLiance aplica una metodología de "modo de producto" ágil y centrada en el usuario, desarrollada originalmente por beta.gouv.fr, que se centra en la iteración rápida, la retroalimentación del usuario y el impacto medible, acelerando así la adopción de la IA en el gobierno. Los criterios de selección estructurados de ALLiaNCE, basados en el impacto, el potencial de mutualización, la participación del usuario y el cumplimiento ético, demuestran un enfoque riguroso para probar y escalar proyectos de IA responsables.
En Australia (2024[36]), más de 60 agencias del Servicio Público Australiano (APS) llevaron a cabo una prueba de seis meses de Microsoft Copilot. Más de 7 700 servidores públicos participaron en el ensayo, cuyos resultados fueron mixtos; sin embargo, a nivel agregado revelaron que los usuarios percibían mejoras en la eficiencia y la calidad de la IA al resumir y preparar un primer borrador de documentos. A pesar de ello, la adopción de la IA requiere esfuerzos concertados para abordar las barreras técnicas, culturales y de capacidad.
Portugal y España se han comprometido con organizaciones de GovTech para promover la experimentación con tecnologías digitales, incluida la IA, en la administración de justicia.13 También con GovTech pero con un enfoque más amplio, el GovTech Lab de España es un caso de uso de IA que identifica escenarios donde la IA generativa puede tener un gran impacto en las administraciones públicas – ya sea alcanzando una mayor eficiencia en la provisión de servicios públicos, reduciendo las cargas de trabajo o mejorando el servicio cívico14. 20 de 300 casos de uso serán piloteados en áreas como la clasificación de documentos, asistentes de IA y preparación de licitaciones y subvenciones. Aquellos que sean exitosos serán escalados y ofrecidos como un servicio a la totalidad de la administración.
Al poner en marcha pequeños experimentos y proyectos piloto de IA, los gobiernos deben tener en cuenta su definición de éxito y establecer mediciones y un marco de evaluación para determinar si un proyecto ha tenido éxito, determinar qué ha funcionado y qué no, y ayudar a recopilar y difundir las lecciones aprendidas. La Guía del Reino Unido para la Evaluación del Impacto de las Intervenciones en el ámbito de la IA es un buen ejemplo, ya que ofrece consideraciones sobre proyectos de IA desde las pruebas a pequeña escala hasta su plena aplicación.15
La OCDE está elaborando actualmente un informe específico sobre la experimentación con IA en la administración pública con el fin de revisar las prácticas actuales y extraer enseñanzas clave que ayuden a fundamentar y orientar a los responsables políticos a la hora de establecer sus propias directrices de experimentación para sus organizaciones (OECD, forthcoming[37]).
Crear fundamentos sólidos para los datos
Los datos son el activo fundamental que impulsa la capacidad de la IA para funcionar, evolucionar y crear valor público. Basándose en el concepto de "entrada y salida de basura", el rendimiento de la IA se correlaciona directamente con la calidad y la representatividad de los insumos con los que se entrena. Los sistemas de IA a menudo requieren grandes cantidades de datos a lo largo del ciclo del sistema de IA para ofrecer resultados valiosos.
Los datos pertinentes pueden obtenerse de administraciones públicas, el sector privado u otras fuentes. Esta sección se centra principalmente en los datos gubernamentales, aunque la OCDE (2025[38]) ha llevado a cabo un trabajo que sistematiza las fuentes a partir de las cuales los desarrolladores de IA obtienen datos para la formación en IA y destaca sus principales atributos.
El acceso y el intercambio de datos gubernamentales para la IA plantean complejos desafíos en materia de gobernanza de datos. Los gobiernos se enfrentan a obstáculos regulatorios y operacionales, desde la protección de la privacidad, los resultados no sesgados y la seguridad de los datos hasta la navegación por los marcos políticos y jurídicos que rigen el intercambio y el uso de los datos y los derechos de propiedad intelectual. Las organizaciones del sector público también tienen que abordar cuestiones técnicas, desde garantizar la interoperabilidad entre los sistemas de datos hasta desarrollar la capacidad técnica para gestionar los datos de manera efectiva.
Garantizar la privacidad, la seguridad y los derechos de propiedad intelectual
Los gobiernos están creando marcos, directrices y mecanismos para promover una sólida gobernanza de datos que salvaguarde la privacidad, la propiedad intelectual y la seguridad. Suelen ser el resultado de colaboraciones entre organismos reguladores, partes interesadas del sector y la sociedad civil. Por ejemplo
La Comisión de Protección de la Información Personal de Corea (2023[39]) ha publicado una guía sobre el procesamiento de la información personal y el desarrollo de la IA. Esta guía describe la base jurídica para el tratamiento de datos personales, establece normas de seguridad y sugiere medidas para proteger los derechos de las personas en los sistemas de IA.
El Marco de IA para el Servicio Público de Nueva Zelanda (2025[18]) y el Manual de IA para el Gobierno del Reino Unido (2025[22]) recogen los principios para un uso de la IA en la administración pública que sea seguro y respetuoso con la privacidad.
Al conectar los conceptos de experimentación (analizados anteriormente) con la protección de datos personales, Francia ha creado un entorno de pruebas de datos (o "sandbox" como comúnmente se le conoce en inglés) para proporcionar un ambiente propicio para la experimentación segura, junto con formación y apoyo práctico en la gestión de datos personales y la garantía del cumplimiento de la regulación (Recuadro 4.3).
Algunos gobiernos están explorando tecnologías que mejoren la privacidad (PET, por su sigla en inglés), como la anonimización de los datos, en relación con los datos confidenciales utilizados para la formación en IA. A su vez, estas tecnologías pueden mejorarse con IA (OECD, 2024[40])16.
Recuadro 4.3. Un entorno de pruebas en Francia sobre datos personales aplicados a la IA en servicios públicos
Copiar enlace a Recuadro 4.3. Un entorno de pruebas en Francia sobre datos personales aplicados a la IA en servicios públicosEn 2023, la autoridad francesa de protección de datos (CNIL) puso en marcha un entorno de pruebas para apoyar la innovación en IA para servicios públicos. Este entorno ofrece a determinadas organizaciones orientación experta para ayudarles a gestionar las regulaciones de datos personales en una fase temprana del desarrollo de sus proyectos. Si bien no elimina ningún requisito legal, ayuda a identificar soluciones a los desafíos de cumplimiento normativo. Se seleccionaron cuatro proyectos para recibir orientación del nuevo departamento de IA de la CNIL:
Albert (DINUM): ayuda a los servidores públicos con un modelo lingüístico para mejorar las respuestas a las consultas de los usuarios, mediante proyectos piloto en los centros "France Services".
Job Intelligence (Pôle Emploi): ofrece orientación personalizada para la búsqueda de empleo, utilizando datos profesionales que relacionan a los solicitantes de empleo con servicios adaptados.
Ekonom AI (Nantes Métropole): ofrece información sobre el consumo de agua y recomendaciones para los residentes, apoyando los objetivos ecológicos y potencialmente adaptables a otras políticas públicas.
Proyecto de vídeo de la RATP: desarrolla IA para detectar eventos mediante la captura de datos matriciales, garantizando la privacidad desde el diseño sin recopilación de datos personales.
Fuente: (CNIL, 2023[41]; [42]).
Garantizar la representatividad de los datos
Garantizar que los sistemas de IA reciban formación sobre datos representativos es crucial para obtener resultados precisos y pertinentes. En algunos países, las diferentes poblaciones tienen idiomas y tradiciones únicos. En otros, diferentes factores demográficos u otros factores contextuales determinan los datos necesarios para que la IA sea eficaz. Tal como se describe en los Principios de Buenas Prácticas de la OCDE sobre Ética de los Datos en el Sector Público (2021[43]). Sin embargo, el uso de datos que no son representativos para formar a la IA puede dar lugar a problemas importantes, sobre todo en el caso de aplicaciones gubernamentales que requieren políticas y decisiones justas y precisas que puedan tener un impacto tangible en la población objetivo. Entre estas cuestiones se incluyen los algoritmos y las decisiones sesgados, así como la incapacidad de desarrollar servicios y políticas adaptados para grupos infrarrepresentados en los datos, tal como se analiza en el Capítulo 1.
Los gobiernos están tomando medidas para abordar este problema. Por ejemplo, diversos países han tomado acciones para invertir recursos en la promoción de la representatividad lingüística (OECD, 2023[44]; Peixoto, Canuto and Jordan, 2024[45])17. Los ejemplos incluyen:
Para promover la representación lingüística, la iniciativa de Recursos Comunes y la Plataforma Danesa de Recursos, ambas en danés, dirigida por la Agencia Danesa de Gobierno Digital (2024[46]), recopilar, desarrollar y mostrar datos sobre el idioma y otras herramientas que puedan apoyar el desarrollo de soluciones de IA danesas.
Grecia (2024[47]) Prosigue el desarrollo de un espacio de datos sobre la lengua y la cultura griegas, centrado en la integración del patrimonio lingüístico y cultural de Grecia en las aplicaciones de la IA.18 . También relacionado con el idioma griego, el desarrollo de los LLM "Meltemi" y "Llama-Krikri" representan pasos prometedores en esta dirección, destacando la importancia del acceso abierto y los esfuerzos colaborativos en la expansión de los recursos lingüísticos disponibles.19
La plataforma india Bhashini, lanzada en el marco de la Misión Nacional de Traducción de Idiomas (NLTM), es el proyecto insignia de infraestructura lingüística de India liderado por la IA. Admite la traducción en tiempo real en 22 lenguas oficiales indias y docenas de dialectos, y proporciona soporte para asistentes de voz multilingües e interfaces de entrega de servicios de IA.20 Gracias a un ejercicio masivo de participación ciudadana, fue posible crear conjuntos de datos multilingües que mejoran la representatividad de los datos, con modelos y API disponibles como código abierto.
En Arabia Saudita, la Autoridad Saudita de Datos e Inteligencia Artificial (SDAIA, por su sigla en inglés) ha lanzado ALLaM, un LLM desarrollado con 500 mil millones de tokens y más de 300 000 textos árabes, que incluyen enciclopedias, investigación científica y trabajos históricos (M Saiful Bari, 2024[48]). ALLaM pretende reflejar la riqueza lingüística y cultural de la lengua árabe.
España está trabajando en una familia de modelos de IA llamada ALIA, que son entrenados exhaustivamente en español nativo y otros datos de lenguaje oficial y estará disponible como código abierto 21. El primer caso incluye un asistente para el diagnóstico de fallo al corazón en el sector de salud pública y un asistente para facilitar la respuesta a la ciudadanía por parte de funcionarios de impuestos.
También se han desarrollado modelos lingüísticos para lenguas americanas nativas. Aunque no fue desarrollado por el gobierno, los investigadores han desarrollado LakotaBERT para apoyar los esfuerzos de revitalización del idioma para "Lakota, un idioma en peligro crítico del pueblo sioux en América del Norte (Parankusham, Rizk and Santosh, 2025[49]).
Permitir que el acceso e intercambio de datos sea efectivo y confiable
Como se analiza en el Capítulo 3, los gobiernos suelen enfrentarse a una escasez significativa de datos de alta calidad, pertinentes y fácilmente disponibles, necesarios para formar eficazmente a los sistemas de IA (OECD, 2025[50]). Para subsanar esta carencia es necesario centrar los esfuerzos en mejorar el acceso a los datos, por ejemplo, mediante la recopilación colaborativa de datos y acuerdos abiertos (Recuadro 4.4).
Recuadro 4.4. Recopilación colaborativa de datos en Suecia para Svea
Copiar enlace a Recuadro 4.4. Recopilación colaborativa de datos en Suecia para SveaSvea es una iniciativa sueca coordinada por AI Sweden que reúne a organismos públicos, municipios, regiones y el sector para hacer frente a los desafíos que plantea la creación de soluciones de IA para los servicios públicos. El objetivo principal es aunar recursos para recopilar datos en sueco que reflejen las necesidades únicas del gobierno, una tarea demasiado grande para una sola organización.
Mediante la colaboración, las organizaciones gubernamentales pueden compartir la carga de trabajo de la recopilación de datos esencial para desarrollar un asistente de IA útil. En la primera fase, los participantes identificaron necesidades específicas y comenzaron a generar datos desde sus organizaciones para formar el sistema. En la próxima fase, tendrán acceso a bases de datos compartidas de información nacional pertinente para seguir informando al asistente de IA.
Fuente: (AI Sweden, 2024[51]).
Otra iniciativa clave son los datos abiertos de organismos públicos. En promedio, solo el 46% de los conjuntos de datos gubernamentales de alto valor están disponibles como datos abiertos en la OCDE (2023[52]), frente a más del 80% en Francia y Corea. Sigue habiendo desafíos por lo que respecta al fomento de la reutilización de datos abiertos por parte de los agentes y la integración de estos conjuntos de datos en los sistemas de IA. Los resultados de la edición de 2023 del índice de datos abiertos, útiles y reutilizables (OURdata) muestran que los países obtienen mejores resultados en disponibilidad y accesibilidad de los datos que el apoyo gubernamental a la reutilización de datos (Gráfico 4.1).
Gráfico 4.1. Índice de datos abiertos, útiles y reutilizables (OURdata) de la OCDE, 2023
Copiar enlace a Gráfico 4.1. Índice de datos abiertos, útiles y reutilizables (OURdata) de la OCDE, 2023Una cuestión clave es cómo aumentar el valor de los datos abiertos de organismos públicos para los sistemas de IA desde su diseño y, por tanto, su accesibilidad y su preparación para la IA. Por un lado, la estandarización (por ejemplo, en términos de estructura y formatos) de los datos abiertos de organismos públicos puede reducir el tiempo que los desarrolladores de IA necesitan invertir en la preparación de datos para formar sistemas de IA. Por otro lado, el mayor uso de herramientas, como las API, también puede favorecer la integración de datos con sistemas basados en IA al proporcionar un método estandarizado para compartir y acceder a los datos de forma automática, directamente desde su origen. En la actualidad, solo el 47% de los conjuntos de datos de alto valor se publican con API (OECD, 2023[52]).
Más allá de los datos abiertos, otras iniciativas relevantes incluyen aumentar el acceso a grandes conjuntos de datos públicos o financiados con fondos públicos, como el Buscador de Datos del Centro de IA de Corea del Sur (2024[53]), que proporciona acceso a conjuntos de datos de texto, imágenes, vídeo, audio y sensores relevantes para la formación en IA, en ámbitos como la sanidad, el transporte público y la seguridad y gestión de catástrofes.
Uso de datos del sector privado
Tanto los datos del sector público como los del privado pueden desempeñar un papel fundamental en el desarrollo de aplicaciones de IA para la administración. Si bien los datos gubernamentales proporcionan información esencial sobre la demografía y los servicios públicos, los datos del sector privado, como los patrones de movilidad, el comportamiento del consumidor y las tendencias financieras, pueden mejorar esta información. Por ejemplo, los sistemas de IA para la planificación urbana pueden beneficiarse de los datos de telecomunicaciones para analizar el flujo de tráfico, mientras que la IA sanitaria puede aprovechar los datos anonimizados de los pacientes de las clínicas privadas para mejorar la predicción de enfermedades. Al combinar ambas fuentes de forma responsable y ética, las aplicaciones de IA pueden ser más precisas, eficientes y responder a las necesidades públicas. Un ejemplo de puesta en común y combinación de datos de los sectores público y privado son los espacios europeos comunes de datos. El objetivo de los espacios de datos es poner a disposición más datos para su acceso y reutilización en toda la Unión Europea en un entorno confiable y seguro en beneficio de las empresas y la ciudadanía europeos (OECD, 2024[54]; EC, 2025[55]).
Crear un entorno propicio con gobernanza de datos
Desde facilitar el acceso e intercambio de datos hasta sentar las bases necesarias para que la IA sea una posibilidad en el gobierno, los gobiernos deben desarrollar mecanismos sólidos de "gobernanza de datos", que puedan integrarse en estrategias y políticas de IA más amplias (OECD, 2024[3]).
La gobernanza de datos se refiere a "diversos mecanismos, incluidas disposiciones técnicas, normativas, regulatorias e institucionales, que afectan a los datos y a su creación, recopilación, almacenamiento, uso, protección, acceso, intercambio y eliminación, incluso entre ámbitos de actuación y fronteras organizativas y nacionales" (OECD, 2022[56]).
El marco de la OCDE para la gobernanza de datos en el sector público, desarrollado originalmente para explorar los mecanismos específicos que deberían existir para permitir el acceso y el intercambio de datos, puede aplicarse al contexto de los datos para los sistemas de IA (Gráfico 4.2). Los gobiernos pueden desarrollar capacidades de gobernanza de datos en el sector público dando prioridad al desarrollo de estrategias integrales de datos, definiendo funciones de liderazgo y estableciendo una visión para gestionar y gobernar los datos a un nivel más técnico para materializar los beneficios y resultados previstos de la IA.
Gráfico 4.2. Gobernanza de datos en el sector público
Copiar enlace a Gráfico 4.2. Gobernanza de datos en el sector públicoPor ejemplo, la Estrategia de Datos para la Función Pública Federal de 2023-2026 de Canadá describe los resultados deseados y los principios rectores para avanzar en una gobernanza de datos sólida en todo el gobierno federal en su conjunto, junto con las expectativas en cuanto a funciones y responsabilidades22. Otros ejemplos son la Estrategia Nacional de Datos del Reino Unido y la Estrategia de Datos y Gobierno Digital de Australia23. Grecia (2024[47]) está llevando a cabo un programa emblemático sobre gobernanza de datos y coordinación de estrategias de IA para establecer los elementos necesarios para apoyar a un sector público y privado preparado para la IA. El memorándum de Estados Unidos analizado en el Recuadro 4.1 establece varios requisitos para mejorar la gobernanza de los datos. También es importante integrar la participación de las partes interesadas con los titulares de los derechos de datos, como la ciudadanía, las empresas y los representantes de la sociedad civil, que podrían verse afectados por el uso de los datos para la IA, ya sea en el contexto de los derechos de propiedad intelectual o de los derechos de los datos personales (OECD, 2022[58]), o por el posible uso de datos inadecuados o sesgados.
Los gobiernos deben apoyar su visión y estrategia sobre los datos para la IA con una capacidad adecuada para una implementación coherente en toda la administración pública, junto con directrices y marcos jurídicos para garantizar la efectividad (OECD, 2019[59]). Esto puede incluir numerosas áreas, como la mejora de la alfabetización en materia de datos y las habilidades para la IA, con ejemplos como la iniciativa24 CAPACITA GOV.BR de Brasil y el Programa Nacional para Mejorar la Protección de los Datos Personales de Argentina. Esto también puede incluir esfuerzos para impulsar la coordinación y la colaboración institucional, con ejemplos como el Centro Noruego de Recursos para el Intercambio y el Uso de Datos (Digdir, 2024[60]). Por último, es esencial reconocer el papel facilitador de los marcos jurídicos que orquestan y aceleran la integración y el intercambio de datos entre instituciones públicas, salvaguardando al mismo tiempo los derechos individuales y la privacidad. Es importante disponer de una legislación clara, moderna y aplicable sobre gobernanza de datos y protección de los datos personales para desplegar sistemas de IA fiables a gran escala. En Chile, se está debatiendo actualmente un proyecto de ley de gobernanza de datos, en el que se definen los principios, funciones y mecanismos de coordinación interinstitucional para la gobernanza de datos. Adicionalmente, está entrando en vigor una nueva Ley de Protección de Datos Personales, acorde con las normas internacionales. Otros ejemplos son la Ley de Intercambio y Gobernanza de datos de Irlanda de 2019 y el Reglamento General de Protección de Datos (RGPD) de la UE, la Ley de Datos, la Ley de Gobernanza de Datos, la Directiva sobre datos abiertos y los marcos de interoperabilidad de datos 25.
Por último, la porción de entrega de gobernanza de datos se refiere a los procesos, mecanismos y herramientas que permiten la implementación operativa de la gobernanza de datos a nivel organizativo y de equipo, garantizando que se implementan prácticas sólidas de gobernanza y gestión de datos e integradas en el ciclo de valor de los datos de IA (OECD, 2019[59]). Un ejemplo es la evaluación realizada por Estados Unidos (2024[61]) sobre la madurez de las operaciones de datos (DataOps) en los organismos federales, como parte de su Guía de IA para el gobierno. Este marco evalúa lo bien que las organizaciones pueden descubrir, acceder y utilizar datos para respaldar el desarrollo de la IA a lo largo del ciclo de vida del valor de los datos. Entre los componentes clave se incluyen la garantía de un catálogo completo de activos de datos, métodos flexibles de acceso a los datos y herramientas que faciliten los experimentos documentados con IA. Otros componentes clave de la gobernanza de datos son las competencias técnicas y los perfiles de trabajo necesarios, entre ellos, los científicos de datos, los expertos en el ámbito, los ingenieros de datos y los proveedores de datos, que participan en la recopilación y el procesamiento de datos para la IA (OECD, 2022[58]). En la siguiente sección se tratan cuestiones relacionadas con la infraestructura de datos.
Construcción de infraestructuras digitales
Garantizar la disponibilidad de una infraestructura digital confiable y escalable puede ayudar a respaldar y ampliar la IA en el sector público. Además de los propios datos, como se ha comentado en el apartado anterior, la infraestructura de datos, las plataformas informáticas escalables, los modelos fundacionales de IA y las herramientas comunes de IA son importantes componentes básicos de la IA en el sector público. También existen otras formas de infraestructura digital, que se analizan en el trabajo de la OCDE (2024[62]). Esta sección se centra en las más relevantes para la IA.
En sus intentos de perseguir sistemas de IA confiables y escalables, los gobiernos se enfrentan a decisiones estratégicas con respecto a los sistemas de IA. Por una parte, el desarrollo de la capacidad nacional a través del desarrollo de la infraestructura digital nacional puede ayudar a un país a aplicar sus propias normas de protección de datos y privacidad. Varios países están tratando de desarrollar esa capacidad (Letzing, 2024[63]; France Élysée, 2025[64]; African Union, 2024[65]; Ray, 2025[66]; EC, 2025[67]; Brizuela et al., 2025[68]). Por otra parte, esto también podría contribuir a la fragmentación tecnológica y al cierre de los ecosistemas que limitan la colaboración internacional (Komaitis, Ponce de León and Thibaut, 2024[69]; Frazier, 2025[70]). Los gobiernos deben considerar varias opciones para determinar un equilibrio que les resulte adecuado para desarrollar soluciones internamente en comparación con la colaboración con el sector privado y con otros países.
La infraestructura digital no solo es relevante para los gobiernos nacionales, sino que también puede ser formativa en la adopción de IA en gobiernos subnacionales, como las ciudades. El desarrollo de herramientas digitales compartidas y reutilizables puede ayudar a los gobiernos locales a superar los costos de entrada debidos a las economías de escala subyacentes y permitir que las soluciones de IA se adapten a las necesidades y contextos locales.
Potencia de cómputo e infraestructura de datos
El acceso a los recursos de infraestructura informática puede ser clave para el desarrollo y uso eficaz de la IA en la administración pública (OECD, 2022[71]). La elección entre soluciones locales y soluciones en la nube para el despliegue de la IA depende de las necesidades específicas, las opciones políticas, los requisitos reglamentarios, las limitaciones presupuestarias y los objetivos a largo plazo.
Las soluciones locales ofrecen un mayor control, personalización y seguridad, lo que las hace adecuadas para aplicaciones muy sensibles y para cumplir con las leyes de localización de datos (Redapt, 2023[72]). Las soluciones en la nube, por otro lado, proporcionan una escalabilidad, rentabilidad y acceso inigualables a tecnologías de IA de vanguardia, lo que las convierte en ideales para proyectos dinámicos y en rápida evolución y más prácticas que las soluciones locales para proyectos pequeños o nuevos o pequeños participantes en el desarrollo de IA (Dombo, 2023[73]). Más de la mitad de los países de la OCDE cuentan con iniciativas de tecnología en la nube, incluidas capacidades de almacenamiento e informática (Infraestructura como servicio, o IaaS). En particular, el acceso a las tecnologías en la nube depende de soluciones tanto públicas como privadas (48% frente a 52% respectivamente), y varios países están desarrollando tecnologías en la nube dirigidas por el sector público (OECD, 2024[74]). En muchos casos, un enfoque híbrido que combine recursos locales o infraestructura dedicada de otro tipo y nube pública (compartida, de terceros) ("nube híbrida") puede ofrecer una solución equilibrada, aprovechando las fortalezas de cada uno. En particular, un estudio realizado por RAND (2024[24]; 2025[25]) destacó que, entre las empresas, aquellas que podían utilizar soluciones en la nube no solían tener problemas para garantizar una capacidad informática adecuada, pero las que no podían transferir datos a la nube se enfrentaban a desafíos importantes que contribuían al fracaso de los proyectos de IA.
La demanda mundial de capacidad de centros de datos preparados para IA podría triplicarse de aquí a 2030, lo que demuestra el creciente uso de la IA (McKinsey, 2024[75]). Se estima que las emisiones de carbono generadas por los centros de datos y las redes de transmisión de datos ya representan el 1% de todas las emisiones relacionadas con la energía, pero en general han crecido solo de forma modesta a pesar del rápido crecimiento de la demanda de servicios digitales, debido en parte al aumento de la eficiencia de los equipos y modelos a lo largo del tiempo (OECD, 2022[71]; IEA, 2023[76]). Un Análisis reciente de la Agencia Internacional de la Energía (AIE) (2025[77]) reveló que los centros de datos se encuentran entre las fuentes de emisiones de más rápido crecimiento y que dichas emisiones podrían aumentar significativamente en los próximos diez años, pero también que "la adopción generalizada de las aplicaciones de IA existentes podría conducir a reducciones de emisiones que son mucho mayores que las emisiones de los centros de datos". Sin embargo, las considerables emisiones de carbono vinculadas a datos ponen de relieve la necesidad de adoptar prácticas para gestionar los requisitos energéticos de la IA. También es importante reconocer las crecientes cantidades de agua necesarias para enfriar los centros de datos (Metz et al., 2025[78]). Las investigaciones recientes y los avances del sector indican una tendencia creciente de la IA hacia la adopción de modelos más pequeños o especializados, como los modelos de lenguaje pequeño (MLS) que consumen menos recursos, requieren menos datos y son menos costosos (Hassani et al., 2022[79]; Jones, 2025[80]).
Recuadro 4.5. Centros de datos compartidos y nube gubernamental de Corea
Copiar enlace a Recuadro 4.5. Centros de datos compartidos y nube gubernamental de CoreaEl Servicio Nacional de Recursos de Información (NIRS) de Corea ha estado trabajando con el Ministerio del Interior y Seguridad para actualizar el hardware, las redes y las herramientas de gestión clave para ayudar a modernizar la tecnología de Corea y permitir la migración a la nube. Una parte fundamental de esta labor ha sido la construcción de nuevos centros de datos gubernamentales, que pueden ayudar a garantizar el cumplimiento de los requisitos gubernamentales, la eficiencia de costos con una huella tecnológica reducida y la creación de empleo y la inversión local en las zonas objetivo. Estos centros de datos también se han puesto a disposición de los principales socios del gobierno en el sector privado, lo que ayuda a garantizar que las empresas que poseen o manejan datos confidenciales lo hagan en un entorno que cumple con los requisitos gubernamentales de seguridad, copia de seguridad y redundancia, entre otros. Con medidas en torno a la sostenibilidad y las energías renovables, los centros de datos ayudan a reducir el impacto ambiental del gobierno digital de Corea, sobre todo cuando se prepara para hacer un mayor uso de las soluciones de IA.
Fuente: (OECD, 2025[81]).
Al tratar de adoptar un enfoque holístico, algunos países están creando infraestructuras informáticas y de datos como parte de un paquete de medidas, incluidos enfoques sobre la infraestructura pública digital (IPD)26 para apoyar el intercambio seguro y significativo de datos entre gobiernos, respaldado por una sólida integración de datos y capacidades de análisis. Estas infraestructuras no solo ayudan a ampliar el uso de la IA, sino que también pueden fomentar la colaboración interinstitucional y la generación de valor público a partir de los datos. Tomemos, por ejemplo, la Infraestructura Nacional de Datos (IND) de Brasil 27. Esta iniciativa estratégica establece un conjunto de políticas, normas, tecnologías y mecanismos de gobernanza para organizar, compartir y gestionar los datos del sector público de forma segura y eficiente. Su objetivo principal es hacer que los datos gubernamentales sean localizables, accesibles, interoperables y reutilizables (principios FAIR), promoviendo la transparencia, la mejora de los servicios públicos, la eficiencia administrativa y la toma de decisiones basada en evidencia en toda la administración, sirviendo como base para la transformación digital y la innovación. La plataforma gov.br del país sirve como centro para integrar el acceso a casi 5 000 servicios públicos digitales e incluye una plataforma Conecta gov.br como capa de interoperabilidad de datos en todo el gobierno. Estas plataformas y otras infraestructuras digitales son la base de la IA en el gobierno. En otro ejemplo, la plataforma nacional en la nube de Arabia Saudí, Deem Cloud, desarrollada por la Autoridad Saudita de Datos e Inteligencia Artificial (SDAIA), consolida la infraestructura digital en más de 190 entidades públicas y más de 260 centros de datos (SDAIA, 2025[82]). Proporciona un conjunto de servicios en la nube para respaldar operaciones digitales seguras y eficientes, y ha contribuido al ahorro energético y de costos, como parte de los esfuerzos más amplios para modernizar la infraestructura del sector público y apoyar las estrategias digitales nacionales. Más centrado en informática, Grecia (2025[83]) está construyendo DAEDALUS, que será uno de los superordenadores más potentes de Europa y será accesible para las instituciones públicas.
Desarrollo de modelos fundacionales de IA
Los modelos de base son una forma de modelos de IA formados en grandes cantidades de datos, que generalmente utilizan la autosupervisión a escala, y que pueden adaptarse a una amplia gama de tareas posteriores (OECD, 2024[84]). Los gobiernos pueden desarrollar sus propios modelos fundacionales o basarse en los existentes para crear enfoques adaptados al contexto específico de un país y/o su público. Los modelos base pueden "perfeccionarse" mediante una formación adicional sobre conjuntos de datos más estrechos relacionados con una tarea o un dominio concretos, mejorando su rendimiento para ese contexto específico (Montgomery, Rossi and New, 2023[85]).
Generalmente, la construcción de un modelo base desde cero se considera costosa y normalmente requiere importantes recursos de datos y energía. Entre los ejemplos de modelos de base privados y privados se incluyen Mistral Large y los que impulsan a Claude Anthropic (por ejemplo, el soneto Claude 3.7), Google Gemini (por ejemplo, Gemini Ultra) y ChatGPT de OpenAI (por ejemplo, GPT-5o).
Aunque pueden ser costosas y requieren una gran cantidad de datos y gran uso de energía, los gobiernos pueden, de hecho, formar y construir sus propios modelos base, como se comenta en el Capítulo 3. Los gobiernos también pueden perfeccionar y adaptar un modelo de base propietario para que se ajuste mejor a su propio contexto, lo que puede reducir significativamente los costos financieros y de tiempo asociados con el despliegue de la IA para tareas específicas. Un ejemplo de este enfoque es el asistente público virtual habilitado para ChatGPT en Portugal para los servicios públicos (Recuadro 5.46).
Los gobiernos también pueden utilizar modelos de código abierto "previamente formados". Se trata de modelos base que han sido formados por una empresa u otra organización que ha hecho que su "arquitectura modelo y sus ponderaciones sean de acceso libre y público para que cualquier persona pueda modificarlos, estudiarlos, construirlos y utilizarlos" (Seger et al., 2024[86])28. La mayoría de los modelos de código abierto son creados por grandes empresas tecnológicas, como la serie Llama de Meta, aunque se han desarrollado modelos más orgánicos, impulsados por la comunidad de código abierto, como el Gran modelo lingüístico multilingüe de ciencia abierta y acceso abierto de BigScience (BLOOM por sus siglas en inglés)29. Un ejemplo de gobierno que aprovecha modelos de IA de código abierto es el asistente virtual Albert de Francia para servidores públicos (Recuadro 5.46).
Un modelo base que se adapte a un contexto nacional y gubernamental, por ejemplo, mediante la puesta a punto de un modelo propietario o la personalización de un modelo de código abierto, puede reducir significativamente el costo de adopción para los equipos que desean implementar la IA. Sin embargo, el desarrollo y uso de modelos base conlleva riesgos que los gobiernos deben tener en cuenta, como se analiza en el Capítulo 1.
Los gobiernos están demostrando cada vez más interés en invertir en modelos de base nacionales o regionales para mejorar la soberanía tecnológica y reflejar mejor los diferentes idiomas y culturas. Por ejemplo, más de 30 instituciones latinoamericanas están desarrollando Latam-GPT, dirigido por Chile, para crear un modelo basado en datos regionales (Gob.cl, 2025[87]). OpenEuroLLM es una iniciativa financiada por la UE para construir modelos de código abierto que cubran todas las lenguas oficiales europeas (EC, 2025[88]). En el Sudeste Asiático han surgido modelos adaptados al contexto y al idioma (Noor and Kanitroj, 2025[89]). Del mismo modo, el proyecto italiano Minerva ha desarrollado el primer Máster en Lengua Italiana desde cero y es uno de los pocos ejemplos en este contexto de modelos de cimentación a medida que se desarrollan desde cero (University of Rome Sapienza, 2024[90]).
Herramientas comunes de IA
Las herramientas comunes de IA que pueden utilizarse en todo un gobierno y adaptarse a las necesidades gubernamentales específicas pueden servir como una forma de IPD que habilita y mejora otros servicios. A veces construidas con modelos base, otras veces proporcionados como otro tipo de IPD, estas herramientas proporcionan una capa de servicio compartida y pueden soportar la automatización de tareas rutinarias, mejorar la interacción del usuario y mejorar la prestación del servicio.
Por ejemplo, los chatbots pueden manejar un gran volumen de consultas de la ciudadanía, proporcionando respuestas instantáneas a preguntas comunes y renunciando a recursos humanos para tareas más complejas. Esto no solo mejora la eficiencia, sino que ayuda a garantizar que los servicios públicos sean más accesibles y respondan mejor a las necesidades de la comunidad. Para que se consideren IPD, estas herramientas de IA deben resolver una necesidad básica común y, por lo tanto, ser utilizables en una amplia gama de organizaciones del sector público. Un ejemplo de este enfoque es el Asistente Virtual Inteligente de Conversación (VICA, por su sigla en inglés) de Singapur, que se ofrece como servicio compartido y que utilizan más de 60 organismos públicos para crear más de 100 chatbots30.
Herramientas comunes de apoyo a la IA no siempre recurren a ella. En otros ejemplos:
La herramienta gubernamental Whole of Government Application Analytics (WOGAA, por su sigla en inglés) (Aplicación de Análisis del Gobierno en su Totalidad) de Singapur se ha desarrollado como una herramienta gubernamental para supervisar el rendimiento de los sitios web y servicios digitales públicos, incluidos los habilitados por la IA, que proporciona un panel central para realizar un seguimiento del tráfico de los sitios web, informes automatizados con métricas clave, rendimiento de referencia en comparación con otros sitios web gubernamentales, etc.
En Estonia, para aplicar el principio de "solo una vez", todas las bases de datos públicas se describen obligatoriamente en el catálogo de recursos de interoperabilidad (RIHA), que sirve de registro nacional de sistemas, componentes, servicios, modelos de datos, activos semánticos y otros, garantizando una gestión transparente, equilibrada y eficiente de los sistemas de información pública.
La incubadora francesa de IA de ALLiaNCE promueve el desarrollo de productos de IA reutilizables en todas las administraciones, con el objetivo de mutualizar esfuerzos y reducir la duplicación. ALLiaNCE ofrece una oferta de servicios de varios niveles, incluidas las herramientas habilitadas para IA integradas en el paquete digital de Francia (La Suite Numérique), así como un nivel fundacional, Albert API, para admitir la reutilización intersectorial de los sistemas GenAI. Como norma digital común, la API de Albert proporciona sistemas de GenAI abiertos y reutilizables, reduciendo el umbral de adopción para los organismos públicos y contribuyendo a la creación de una IPD nacional para la IA. La incubadora ALLIANCE también da prioridad a la soberanía de los datos y a las soluciones digitales abiertas y soberanas, lo que refleja los esfuerzos gubernamentales para mitigar los riesgos de dependencia y garantizar la confianza en los sistemas de IA.
El Catálogo de herramientas y métricas de IA de OECD.AI para una IA confiable incluye una variedad de herramientas de dentro y fuera de los gobiernos que pueden ayudarles a fundamentar la determinación de sus propias necesidades31.
Fomentar las competencias y el talento
Como se analiza en el Capítulo 3, las carencias en materia de competencias son uno de los desafíos más significativos para la adopción de una IA confiable en el gobierno. Por lo tanto, los gobiernos deben adoptar medidas adecuadas para fomentar la competencia y la capacidad internas.
Los gobiernos deben dotar a los servidores públicos de las competencias adecuadas para maximizar la efectividad de la IA, garantizando al mismo tiempo un uso seguro y confiable. Un servicio público preparado para la IA es fundamental para el desarrollo y el despliegue de soluciones de IA, así como para el uso eficaz de herramientas impulsadas por la IA con el fin de mejorar las tareas diarias y la formulación de políticas. Un enfoque estratégico y coordinado de las competencias y el talento en IA puede ayudar a dirigirse a diferentes grupos de la organización, identificar carencias de competencias, desarrollar las competencias adecuadas y atraer y retener talento más especializado en IA. Asimismo, el fortalecimiento de las competencias internas puede contribuir al desarrollo de la capacidad nacional, un tema tratado en la sección anterior.
Esto puede incluir la contratación de personas con las competencias necesarias para trabajar con IA, así como el perfeccionamiento profesional de las funciones existentes. Los gobiernos tendrán que prever que, a medida que la IA evolucione, también lo harán las competencias necesarias, lo que exige un aprendizaje continuo. Un enfoque sólido requerirá una evaluación de las necesidades para mapear el nivel actual de capacidad de datos y la IA de los actuales servidores públicos, identificar las principales carencias y fundamentar la estrategia para abordar estas necesidades. Esto significaría poder tomar decisiones informadas entre la contratación, la retención y el desarrollo del talento digital. Esto también podría servir de base para programas de formación adaptados que aborden las carencias en materia de competencias y para un enfoque que permita gestionar y formar (mediante la calificación, el perfeccionamiento o la recalificación) las funciones más afectadas por la integración de la IA.
Evaluación de necesidades de distintos grupos de usuarios
Las instituciones gubernamentales deben evaluar las necesidades de los diferentes grupos de usuarios para adoptar la IA y utilizarla de manera efectiva. Una organización preparada para la IA va desde los usuarios generales de sistemas de IA hasta los líderes institucionales, los profesionales de datos y digitales, y las funciones más especializadas. Como se ilustra en el Gráfico 4.3, los grupos de usuarios se vuelven más estrechos y especializados más abajo en la pirámide.
Gráfico 4.3. Considerar el nivel de alfabetización sobre IA necesario para los diferentes grupos de usuarios en la organización
Copiar enlace a Gráfico 4.3. Considerar el nivel de alfabetización sobre IA necesario para los diferentes grupos de usuarios en la organización
En general, los servidores públicos no especializados son fundamentales para la adopción y el uso eficaz de la IA. Su formación debe centrarse en la alfabetización general en torno a los datos y las tecnologías de IA, su uso efectivo con respecto a determinadas tareas y la consideración ética y jurídica para su uso.
Los líderes serán parte integral de la adopción de la IA, siendo la capa en la que la tecnología se encuentra con el negocio del gobierno. Ayudan a concienciar a los usuarios, impulsan la adopción de la IA y promueven oportunidades de aprendizaje y desarrollo en la administración pública. Este grupo de usuarios necesita una visión estratégica y una comprensión a nivel ejecutivo de lo que pueden hacer las tecnologías de IA, su impacto y cómo abordar los riesgos, el cumplimiento, el financiamiento y la gestión de la organización.
Los profesionales de datos y digitales lideran y facilitan el diseño, desarrollo e implementación de servicios específicos. Este grupo de usuarios necesita un mayor grado de alfabetización en IA para comprender cómo debe implementarse la IA para lograr los objetivos previstos para los servicios de los que son responsables. Junto con los especialistas, este grupo puede ser responsable de la adquisición de IA a través de procesos de contratación pública. Por lo tanto, el conjunto adecuado de competencias puede empoderarlos en las negociaciones con los proveedores que desean vender productos y servicios de IA.
Aunque son una parte menor de la organización, los especialistas en IA son fundamentales para el desarrollo, la implementación, la gestión y el uso de los sistemas de IA. Van más allá del desarrollo directo de la IA, e incluyen funciones en materia de contratación pública y gestión jurídica y de proyectos. Para desarrollar este grupo de usuarios, los gobiernos deben centrarse en la atracción, retención y aprendizaje y desarrollo. Además, para superar la posible escasez de competencias en el mercado, las organizaciones gubernamentales también pueden considerar aprovechar las capacidades externas a través de la contratación pública y las alianzas, como se analiza a continuación.
Preparación de los usuarios de la función pública
Una administración pública preparada para la IA requerirá una combinación de competencias digitales básicas y una alfabetización más específica en materia de datos e IA. El Marco de políticas de la OCDE para el talento y las competencias digitales en el sector público (OECD, 2021[7]) describe las diversas competencias digitales fundamentales aplicables a todos los servidores públicos, esenciales para apoyar la transformación digital:
Comprender el potencial de la transformación digital.
Comprender a los usuarios y sus necesidades.
Colaborar abiertamente para la entrega iterativa.
Uso confiable de los datos y la tecnología.
Capacidades que permitan un sector público basado en datos.
Habilidades socio-emocionales del gobierno digital.
Habilidades de liderazgo del Gobierno Digital.
Para que los trabajadores estén preparados para la IA, es necesario partir de estas bases con la alfabetización necesaria para que "las personas evalúen de forma crítica las tecnologías de IA, se comuniquen y colaboren eficazmente con la IA y utilicen la IA como herramienta en línea, en el hogar y en el lugar de trabajo" (Long and Magerko, 2020[91]). Esto incluye entender los sistemas de IA, el manejo y la gestión de datos y la ética. Un enfoque, por ejemplo, es el marco de políticas de competencias empresariales basado en las competencias de IA desarrollado por el Instituto Alan Turing en el Reino Unido (2023[92]), que tiene cinco dimensiones:
Privacidad y protección: para mitigar los riesgos relacionados con la seguridad y protección de los datos, especialmente en lo que respecta a consideraciones legales, reglamentarias y éticas.
Especificación, adquisición, ingeniería, arquitectura, almacenamiento y conservación: para el manejo y gestión de datos que permitan un uso más efectivo y ético de los sistemas de IA.
Definición y comunicación de problemas: identificar, definir y comunicar los "problemas" que más se benefician de la aplicación de las soluciones de IA.
Resolución de problemas, análisis, modelización y visualización: incluye una serie de herramientas y métodos que pueden utilizarse para el análisis, la aplicación de la IA y la comunicación.
Evaluación y reflexión: para comprender el impacto del trabajo en la IA, evaluar la eficiencia y la efectividad de los proyectos de IA e identificar oportunidades de mejora.
El nivel de competencia y la medida en que cada uno de ellos es necesario varía en función del grupo de usuarios, la capacidad existente o el nivel de capacidad requerido para sus funciones. Sin embargo, esta combinación de bases digitales y competencias en materia de IA debería propiciar un uso más eficaz de la IA en la administración pública.
Desarrollo de competencias y talento
Para desarrollar competencias y talento en materia de IA en la función pública, los gobiernos deben tener en cuenta tanto las prácticas de desarrollo interno como la contratación más amplia de talento clave. Entre los principales mecanismos para desarrollar el talento existente se incluyen los siguientes elementos, con ejemplos adicionales facilitados en la Guía del G7 para la IA en el sector público de la OCDE/UNESCO (2024[29]).
Los marcos de competencias describen las principales habilidades y vías de aprendizaje de la organización, que deben adaptarse en función de las evaluaciones de necesidades y los grupos de usuarios descritos anteriormente. Esto también podría contribuir a la profesionalización de funciones clave de la IA para el gobierno. Por ejemplo, el Centro Común de Investigación (JRC, por sus siglas en inglés) de la CE ha desarrollado un marco global de competencias (Recuadro 4.6). India también ha desarrollado un marco de competencias específico para preparar a los servidores públicos a liderar la transformación de la IA de manera responsable, adaptando el contenido a los diferentes tipos de funcionarios32.
El aprendizaje formal puede incluir cursos, talleres y módulos en línea. Por ejemplo, Irlanda ofrece varios cursos relevantes, entre ellos formación sobre la IA en la administración pública y sobre las directrices del país para el uso responsable de la IA en la administración pública, y el Ministerio del Interior griego, en colaboración con Google, ha creado cursos de formación en IA para servidores públicos33. Los elementos del curso gratuito y abierto disponible en todo el mundo sobre IA pueden ayudar a mejorar la alfabetización fundacional en IA tanto de los servidores públicos como de la ciudadanía34.
El aprendizaje informal, incluso a través de comunidades de práctica, tutoría o rotaciones de empleo, entre otros, puede ayudar a crear conciencia e impulsar la adopción. Estos enfoques se analizan más adelante.
Recuadro 4.6. Marco de competencias de la Unión Europea para la IA en la administración pública
Copiar enlace a Recuadro 4.6. Marco de competencias de la Unión Europea para la IA en la administración públicaLa UE ha desarrollado un marco global de competencias para orientar a los servidores públicos en la adopción y gestión eficaces de la IA. Este marco, elaborado por el Centro Común de Investigación (JRC, por su sigla en inglés), se basa en investigaciones empíricas, que incluyen revisiones bibliográficas, talleres de expertos y estudios de casos, e identifica las competencias clave necesarias para la integración de la IA en la administración pública.
El marco clasifica las competencias en tres dimensiones principales:
Competencias técnicas: abarcar conocimientos y competencias relacionados con la gestión de datos, el aprendizaje automático y la implementación de sistemas de IA.
competencias de gestión: abordar la propiedad de los proyectos, la intermediación en el intercambio de conocimientos y la toma de decisiones en iniciativas relacionadas con la IA.
Competencias políticas, jurídicas y éticas: conocimientos sobre contratación pública en IA, auditoría y colaboración con expertos en el ámbito de la IA para garantizar el cumplimiento normativo y las consideraciones éticas.
Además, las competencias se agrupan en tres grupos transversales relacionados con: (i) competencias actitudinales (saber por qué), que se refieren a mentalidades y disposiciones que respaldan la adopción de la IA, como la curiosidad tecnológica y una cultura orientada a los datos; (ii) competencias operativas (saber hacer), que abarcan habilidades prácticas para la implementación de la IA, incluida la gestión de bases de datos, la formación en algoritmos y los procesos de toma de decisiones; y (iii) competencias de alfabetización (saber qué), relacionadas con el conocimiento basado en hechos de los conceptos de la IA, los marcos regulatorios y los principios fundamentales del aprendizaje automático.
Además de desarrollar el marco, el trabajo del JRC contiene tres recomendaciones clave sobre competencias:
Desarrollar programas de formación interdisciplinarios y centrados en las competencias en IA.
Promover la investigación interdisciplinaria aplicada sobre competencias en IA.
Establecer procesos de contratación específicos y destinar recursos adicionales a atraer a especialistas con competencias en IA.
El desarrollo interno de competencias relacionadas con la IA debe complementarse con estrategias externas para atraer talento de primer orden y retener a servidores públicos cualificados. El marco de competencias de la Unión Europea para la IA en el gobierno pone de relieve la necesidad de un enfoque estructurado para el desarrollo de competencias en IA, que haga hincapié en las competencias técnicas, de gestión y relacionadas con las políticas. La Estrategia del Talento Digital de Canadá se ajusta a estos principios y reconoce que la adopción de la IA en el sector público requiere un equilibrio de competencias actitudinales (saber por qué), operativas (saber hacer) y de alfabetización (saber qué) para formar una organización lista para la IA35.
Para subsanar las principales carencias de competencias, es esencial llevar a cabo iniciativas de contratación específicas y procesos de contratación específicos. El modelo de competencias y orientación para la contratación basado en las competencias de la Oficina de Gestión del Personal de los Estados Unidos (OPM, por su sigla en inglés) en materia de IA ofrece un enfoque estructurado para definir y evaluar las clasificaciones de empleo de la IA36, mientras que el marco de la UE subraya la importancia de los programas de formación interdisciplinaria y la investigación aplicada. Los gobiernos también deben centrarse en una remuneración competitiva, trayectorias profesionales claras y flexibilidad en el lugar de trabajo para atraer y retener talento en IA.
Cuando la capacidad interna sigue siendo limitada, las alianzas con la industria y el mundo académico, así como la contratación estratégica de expertos externos, pueden proporcionar el apoyo necesario. En las siguientes secciones, dedicadas a la contratación pública y las alianzas en el ámbito de la IA, se analizan más a fondo estas estrategias, ofreciendo ejemplos en materia de políticas. Además, es fundamental realizar una evaluación continua de la alineación de la organización, los avances en la reducción de las carencias en materia de competencias en IA y la efectividad de las iniciativas de aprendizaje. Al integrar la información basada en competencias procedente de las mejores prácticas mundiales, los gobiernos pueden garantizar que su fuerza laboral digital evolucione junto con los avances tecnológicos, las consideraciones éticas y los cambios en las demandas del mercado laboral.
Facilitar las conexiones y el intercambio de conocimientos
Las comunidades de práctica y las redes permiten la colaboración, aprendizaje, intercambio de conocimientos, a través de las fronteras de la organización, y la identificación de problemas colectivos o comunes. También pueden servir como un conducto útil para solicitar la opinión de los usuarios sobre los sistemas y servicios internos de IA. El Marco de competencias del JRC de la CE (Recuadro 4.6) señala que este tipo de actividades pueden ser fundamentales para ayudar a los servidores públicos a adquirir conocimientos sobre IA y para ayudar a superar los desafíos que plantea su adopción temprana. Este marco establece tres puntos de acción para desarrollar comunidades de práctica: 1) crear alianzas con las partes interesadas pertinentes, 2) desplegar plataformas digitales para la comunicación y la colaboración de las entidades implicadas, y 3) financiar subvenciones por sinergia para la colaboración público-privada y el intercambio de conocimientos, que pueden ayudar a reducir las asimetrías de conocimiento y generar empresas conjuntas.
La difusión de métodos, estrategias y casos de uso de éxito a través de dichos métodos puede ayudar a las organizaciones gubernamentales a replicar y ampliar los proyectos de IA de manera más efectiva (OECD/UNESCO, 2024[29]). Este enfoque ayuda a evitar errores comunes, ayuda a garantizar la coherencia y acelera la adopción de las tecnologías de IA en diversas entidades gubernamentales. Por ejemplo
El programa de desarrollo de competencias de Estonia incluye una red de expertos en datos con más de 500 participantes, encuentros de IA y eventos de experimentación (por ejemplo, hackatones o competiciones) (OECD/UNESCO, 2024[29]).
La Red de Innovadores Públicos de Chile conecta a más de 30 000 servidores públicos de todos los niveles de gobierno y otros actores relevantes para el aprendizaje colectivo, la creación y la experimentación, incluso en materia de IA37.
La Conferencia de Datos de Canadá sirve como el principal foro para que los servidores públicos y los líderes de datos mejoren la concienciación, compartan conocimientos y avancen en las aplicaciones de datos en todo el gobierno canadiense.38 Además, los grupos de trabajo dirigidos por departamentos sobre temas de IA permiten a los servidores públicos de diversos departamentos compartir experiencias e ideas, fomentando la colaboración y la innovación en la implementación de la IA (OECD/UNESCO, 2024[29]).
La Red Internacional de Ciudades Inteligentes, dirigida por Alemania, promueve el intercambio internacional y la transferencia de conocimientos a nivel nacional y local al servir como lugar para el diálogo internacional y el intercambio de ideas y mejores prácticas.39
Francia creó ALLIANCE y Communauté des labos, grupos interministeriales informales para compartir las mejores prácticas en materia de IA40.
En Suiza, la Red de Competencias sobre IA ha promovido comunidades de práctica para comprender los desafíos comunes en la implementación de sistemas de IA, incluida la administración pública 41.
No es necesario que estas comunidades y redes se centren específicamente en la IA; de hecho, los grupos más generales pueden ayudar a sacar a la luz una base más amplia de cuestiones relevantes y considerar mejor enfoques alternativos. Sin embargo, es posible que los gobiernos deseen desarrollar más comunidades y redes centradas en la IA o garantizar que las comunidades y redes generales incluyan a personas con experiencia en IA, con el fin de ayudar a identificar vínculos entre problemas y enfoques de IA que puedan constituir una solución óptima.
Aunar perspectivas y competencias multidisciplinarias
Las competencias digitales y en materia de IA no son las únicas pertinentes para diseñar y utilizar la IA en la administración pública. Algunos gobiernos han intentado crear uno o más equipos multidisciplinarios para garantizar que las iniciativas de IA se beneficien de diversas perspectivas y conocimientos. La sensibilidad y complejidad en torno a la IA exigen la participación de expertos de diversas disciplinas, como la tecnología, la ética, el derecho y las políticas públicas, para establecer un enfoque estratégico del uso de la IA. Dichos equipos pueden aportar una diversidad de perspectivas y conocimientos, facilitando así la identificación de posibles riesgos y garantizando un uso integral e inclusivo de la IA en toda la administración pública (Berryhill et al., 2019[4]).
Invertir con propósito
Los gobiernos están invirtiendo cada vez más en IA financiando iniciativas gubernamentales de IA. Las estimaciones indican que los gobiernos podrían aumentar su gasto anual en tecnologías relacionadas con la IA un 19% en 2025 y seguir aumentando a partir de entonces (Gartner, 2024[93]). Es esencial que los gobiernos planifiquen, implementen y supervisen estratégicamente las inversiones en IA en el sector público para garantizar la optimización de los recursos, identificar y mitigar los posibles riesgos de inversión, implementar y desplegar tecnologías de forma oportuna y evaluar si se consiguen los beneficios previstos (OECD, 2025[94]).
El Índice de Gobierno Digital (DGI) de la OCDE de 2023 (2024[74]) muestra que los países todavía no han desarrollado capacidades sólidas para gestionar las inversiones digitales en el sector público. Si bien el 88% de los países de la OCDE han adoptado un enfoque estandarizado para desarrollar propuestas de valor, solo el 41% han desarrollado un mecanismo de evaluación de riesgos para las inversiones en gobierno digital, que incluye los riesgos operativos (por ejemplo, de ciberseguridad, de acceso a servicios o de interrupción relacionados con el uso de tecnologías heredadas) y financieros (por ejemplo, incertidumbre sobre el rendimiento de la inversión, sostenibilidad del financiamiento o gastos generales y de mantenimiento). Para avanzar hacia inversiones en IA fiables en el gobierno, los países pueden desarrollar mecanismos de garantía, como:
Fortalecimiento de la planificación estratégica.
Apoyar inversiones coherentes en toda la administración.
Reforzar los mecanismos de supervisión de las inversiones.
La coordinación de todo el sector público en estos tres ámbitos permitirá a los gobiernos invertir en sistemas de IA capaces de cumplir los objetivos de política pública a tiempo y dentro del presupuesto. Las siguientes subsecciones revisan estos ámbitos.
Fortalecer la planificación estratégica para una inversión coherente
Los gobiernos deben coordinarse con las principales partes interesadas para planificar y gestionar las inversiones en IA sobre la base de principios claros. El establecimiento de tales principios puede ayudar a garantizar que las decisiones de inversión sean coherentes con los objetivos estratégicos generales. Por ejemplo, articular un compromiso para desarrollar servicios más proactivos podría dar lugar a un mayor apoyo financiero y de gestión para la implementación de chatbots de IA para la interacción entre el gobierno y la ciudadanía. Además, la coordinación entre las autoridades presupuestarias, las administraciones digitales y las encargadas de la contratación pública puede ayudar a identificar las necesidades de IA y alinearlas con los recursos disponibles y las posibles adquisiciones y alianzas con el sector privado. Alemania ha intentado conseguirlo a través de una declaración de misión sobre IA de 2024 que se complementa con un nuevo Centro de IA en la Administración Pública (BeKI, por su sigla en alemán) como organismo iniciador y coordinador de inversiones y orientación en IA en la administración federal (OECD, 2024[95])42.
Los gobiernos también pueden utilizar las herramientas de gestión existentes, como los mecanismos de propuesta de valor y de evaluación de riesgos de inversión, para reforzar la garantía y garantizar la coherencia de las decisiones de inversión en sistemas de IA. La adaptación de los mecanismos de propuesta de valor a las especificidades de los sistemas de IA permite a los gobiernos reforzar los procesos de garantía para un desarrollo y uso confiable de la IA. Esto incluye la evaluación de aspectos clave de la IA, como el cumplimiento de la regulación y las normas políticas. La propuesta de valor puede incluir una evaluación de riesgos e impacto que mida y evalúe los beneficios y riesgos potenciales de los sistemas de IA en el gobierno, así como los planes para cumplir con las regulaciones. Por ejemplo, Australia ha publicado un Marco Piloto de Aseguramiento de la IA43 para orientar a las agencias en la alineación de los casos de uso de la IA con los Principios Éticos de la IA de Australia, identificar los impactos y riesgos, y aplicar medidas de mitigación44.
Financiar la IA y apoyar a las inversiones coherentes en toda la administración
Aunque a menudo se pasan por alto en las estrategias nacionales de IA, los mecanismos de financiamiento son una consideración importante para las aplicaciones gubernamentales de la IA (van Noordt, Medaglia and Tangi, 2023[96]). Incluso las iniciativas sencillas necesitan algún nivel de financiamiento y apoyo financiero para pasar de la idea a la realidad, y se necesitan muchos más fondos para ampliar un proyecto exitoso. La disponibilidad y la naturaleza de este financiamiento pueden contribuir en gran medida al éxito final de la innovación basada en la IA. Por el contrario, la falta de financiamiento para el desarrollo y la implementación de la IA es una barrera importante para la adopción de la IA por parte del gobierno (EC, 2024[97]; UK NAO, 2024[16]). Disponer de recursos financieros específicos puede respaldar la experimentación y la ampliación de la IA, así como ayudar a reducir la fragmentación de los esfuerzos y la adopción desigual de la IA. La Comisión Europea (CE) (2024[97]) lo ha señalado recientemente en un estudio de 2024 sobre la adopción estratégica de la IA para los servicios públicos, en el que se recomienda a los gobiernos que aumenten el financiamiento y los recursos destinados a su uso de la IA. Algunos ejemplos de instrumentos de financiamiento específicos son:
El Fondo de Modernización Tecnológica de Estados Unidos (TMF, por su sigla en inglés) lanzó una convocatoria especial de inversiones en IA para apoyar a las agencias públicas como parte de un mecanismo de financiamiento más amplio diseñado para reemplazar la TI heredada obsoleta45 .
En Francia, el Fondo para la Transformación de la Acción Pública ofrece apoyo financiero a las instituciones del sector público que buscan mejorar las políticas y los servicios con IA, en particular para propuestas de proyectos con potencial de escalabilidad y replicabilidad en toda la administración pública46.
El Reino Unido está invirtiendo 110 millones de GBP para acelerar el uso de la IA en el gobierno, lo que incluye añadir capacidad a su incubadora de IA (i.AI), y se ha comprometido a proporcionar 10 millones de GBP para impulsar las capacidades de IA de los reguladores (Cover-Kus, 2024[98]; UK House of Commons, 2024[99]).
En Polonia, se ha pedido a los departamentos gubernamentales que reserven un porcentaje de su presupuesto para adquisiciones de IA (van Noordt, Medaglia and Tangi, 2023[96]).
Mecanismos de monitoreo para una inversión coherente
Garantizar el desarrollo y despliegue dentro del presupuesto y de los plazos de las inversiones en IA contribuye a la realización de los beneficios y a la obtención de los resultados previstos. En consonancia con las inversiones generales en tecnologías digitales, los gobiernos pueden aprovechar las herramientas de supervisión para supervisar la gestión y el desarrollo de los sistemas de IA en toda la Administración. Estas actividades deben contemplar el desarrollo de indicadores clave de rendimiento (KPI por sus siglas en inglés) y enfoques estructurados para gestionar los avances en curso en los sistemas de IA a través de la gestión de carteras de TI. Estas herramientas de gestión pueden crear o complementar salvaguardas para el desarrollo de la IA centradas en un desarrollo, despliegue y uso confiable de IA en la administración pública. Estos enfoques pueden tener en cuenta mecanismos de control de calidad, vinculándolos con la planificación y el seguimiento de las inversiones digitales para garantizar la coherencia en todo el ciclo de vida del sistema de IA. Los países han desarrollado directrices para integrar acciones de supervisión y medición en el ciclo de inversión en las iniciativas de IA. Por ejemplo, Francia utiliza una herramienta de seguimiento para los principales proyectos digitales estatales, incluidas las iniciativas de IA, que cuestan más de 9 millones EUR47. Enumera proyectos estratégicos de TI y ayuda a identificar acciones para el éxito. La herramienta supervisa la distribución del proyecto por ministerio, fase de progreso, área funcional y costo estimado (OECD/UNESCO, 2024[29]). Sin embargo, la mayoría de los países siguen enfrentándose al reto de aplicar prácticas de supervisión continuas o ad hoc. Reconociendo la necesidad de desarrollar capacidades y planes específicos para el seguimiento de las políticas de IA, la Oficina del Auditor General (OAG, por su sigla en inglés) de Noruega comenzó a auditar el uso de la IA en el gobierno central como parte de su cartera de nuevas auditorías de rendimiento desde 2023. A nivel ejecutivo, el país está adoptando medidas para reforzar el seguimiento y la supervisión de la cartera de proyectos gubernamentales de IA mediante auditorías internas periódicas, el seguimiento del rendimiento y las evaluaciones de impacto (OECD, 2024[100]).
Utilización de la contratación pública para obtener productos y servicios de IA y orientar el mercado
Los procesos y mecanismos de contratación pública adecuados son fundamentales para permitir un acceso óptimo y rentable a los sistemas de IA desarrollados por terceros, desde grandes empresas hasta empresas emergentes y emprendedores. Más allá de simplemente comprar soluciones o contratar recursos, la contratación pública sirve a un enfoque estratégico clave, que utiliza la compra como un puente para conectar las misiones y objetivos públicos con las necesidades y valores de la sociedad. Para desempeñar esta función de manera efectiva, los funcionarios de contratación pública deben llevar a cabo una evaluación exhaustiva de la coherencia de la IA con los objetivos internos, el cumplimiento de las normas de equidad y transparencia, la eficiencia de los recursos, la mitigación de riesgos (por ejemplo, sesgos o vulnerabilidades de seguridad), el participación con las partes interesadas y los grupos afectados, y el cumplimiento de los marcos legales y regulatorios pertinentes.
Al promover el despliegue efectivo de las tecnologías de IA, las entidades públicas podrían considerar la adopción de mecanismos de contratación que fomenten la agilidad, la iteración y la innovación. El proceso debe comenzar con una cuidadosa preparación y planificación para lograr procesos de adquisición flexibles y eficientes que fomenten una amplia participación que esté abierta y sea accesible para todos (UK DSIT, 2020[27]). Esta fase preparatoria debería incluir:
la creación de un equipo multidisciplinar para apoyar la adquisición de sistemas de IA
una evaluación de los enfoques actuales en materia de datos y gobernanza para evaluar la preparación y las capacidades y recursos existentes para la formación y el uso efectivos de los sistemas de IA, según proceda
una evaluación de los riesgos potenciales a lo largo del ciclo de vida de la IA y la identificación de las estrategias de mitigación asociadas.
Métodos de licitación ágiles e innovadores
Los métodos de contratación ágiles e innovadores brindan oportunidades para acelerar la adopción de nuevas tecnologías dentro de los gobiernos y sobre el desarrollo y uso confiable de la IA (Monteiro, Hlacs and Boéchat, 2024[101]). Entre ellos se incluyen concursos tecnológicos, demostraciones, procesos de contratación basados en desafíos y diálogos competitivos (UK DSIT, 2020[27]). Además, los acuerdos marco de políticas que establecen normas, prioridades y directrices generales de contratación pública —ya sea específicamente para la IA o con proveedores clave— pueden desempeñar un papel en la realización de negocios con el sector privado, incluso en el caso de países con un conjunto menos diverso de prácticas de contratación pública a su disposición. En Australia, por ejemplo, el gobierno utilizó un acuerdo existente con una empresa multinacional de tecnología para desplegar un proyecto piloto a gran escala de una solución de IA en toda su administración pública (Australia DTA, 2024[102]). Los acuerdos marco sobre políticas también pueden adoptar la forma de entornos predefinidos que permitan la contratación de IA con arreglo a principios rectores más amplios. Por ejemplo, el programa Adopt AI de la Comisión Europea (2024[97]) tiene por objeto modernizar la contratación pública de sistemas de IA fomentando el diálogo entre los contratistas públicos y la industria europea de la IA. Promueve el entendimiento mutuo, impulsa la inversión en la industria y busca crear un espacio de datos para la contratación pública. El diálogo sectorial tiende un puente entre los contratantes que buscan soluciones y los proveedores que necesitan información sobre los planes de la administración pública (OECD/UNESCO, 2024[29]).
La contratación pública como motor del bien público y la IA confiable
La contratación pública puede ser una herramienta estratégica para dar forma al mercado y garantizar que los sistemas de IA se ajustan a las normas gubernamentales. También desempeña un papel fundamental a la hora de establecer requisitos para los sistemas de IA que reflejen los valores públicos, garantizando la rendición de cuentas, la seguridad y la equidad en la adopción de la IA. Por ejemplo, la Comisión Europea estableció un modelo de cláusulas contractuales para poner a prueba los contratos de IA en 2023, que se actualizaron en 2025 con el fin de adaptarse a los requisitos de la Ley de IA de la UE y proporcionar directrices exhaustivas para las aplicaciones de alto riesgo y opciones personalizables para la IA no de alto riesgo (2023[103]; 2025[104]) 48. Australia también ha establecido cláusulas modelo49. A nivel subnacional, la ciudad de Barcelona (España), ha introducido cláusulas de contratación pública que hacen hincapié en la soberanía de los datos, garantizando que los datos recopilados de la ciudadanía, incluso por parte de empresas privadas, sigan siendo de propiedad pública (Berryhill et al., 2019[4]). Las directrices de contratación pública son instrumentos de política que pueden influir en el uso de la IA en todo el mundo. Por ejemplo, ChileCompra, el organismo chileno de contratación pública ha introducido una nueva herramienta para garantizar que los sistemas de IA adquiridos sean responsables y éticos (véase el Recuadro 5.24)50. A nivel internacional, iniciativas como el Foro Económico Mundial (WEF, por su sigla en inglés) (2025[105]) "AI Procurement in a Box" (“Kit de Adquisición de IA”) proporciona una guía estructurada para ayudar a los gobiernos a integrar las mejores prácticas de contratación de IA y alinear las adquisiciones de IA con marcos éticos y regulatorios. En abril de 2025, Estados Unidos publicó una nueva política de adquisiciones de IA que parece promover la contratación rápida y la eliminación de la burocracia innecesaria y los procesos de contratación obsoletos (Recuadro 4.7).
Recuadro 4.7. Impulsar adquisiciones eficientes de IA en Estados Unidos
Copiar enlace a Recuadro 4.7. Impulsar adquisiciones eficientes de IA en Estados UnidosEn Estados Unidos, la Oficina de Gestión y Presupuesto de la Casa Blanca (OMB, por su sigla en inglés) emitió el memorándum M-25-22 Driving Efficient Acquisition of Artificial Intelligence in Government (Impulsar adquisiciones eficientes de IA en Estados Unidos) el 3 de abril de 2025. Este último incluye una variedad de requisitos y recomendaciones para las agencias federales con respecto a las adquisiciones de IA en seis fases de contratación. Una lista no exhaustiva de estos incluye:
1. Identificación de los requisitos: convocar un equipo multifuncional que informe sobre la adquisición de sistemas de IA y ayude a crear una lista inicial de posibles riesgos que deban evaluarse. En la medida de lo posible, considerar qué usos pueden ser "IA de alto impacto" (Recuadro 1.3).
2. Investigación y planificación de mercado: buscar capacidades de IA de última generación mediante la realización de estudios de mercado exhaustivos, en particular mediante el intercambio de conocimientos entre organismos y la consideración de capacidades novedosas a partir de nuevos participantes. Buscar demostraciones y pruebas detalladas de la IA potencialmente útil para evaluar a los proveedores e identificar los obstáculos a la rentabilidad a largo plazo. Utilizar técnicas basadas en el rendimiento para identificar los requisitos y los términos del contrato a fin de comprender y evaluar las reclamaciones de los proveedores.
3. Desarrollo de solicitudes: incluir en las solicitudes requisitos que protejan contra el bloqueo del proveedor y los términos relacionados con los derechos de PI y el uso legítimo de los datos gubernamentales, y cuando sea factible, las agencias deben ser transparentes con respecto a si el uso de la IA podría considerarse de "alto impacto" y lo que esto podría significar para el proveedor.
4. Selección y adjudicación: probar las soluciones propuestas para comprender sus capacidades y limitaciones. Por separado, las agencias deben evaluar las propuestas para identificar cualquier nuevo riesgo potencial relacionado con la IA que no se haya identificado previamente. Abordar, en los términos del contrato, cuando corresponda, los derechos de PI y el uso de datos gubernamentales, la privacidad, las protecciones de bloqueo de proveedores y los requisitos de cumplimiento para el memorándum analizado en el Recuadro 4.1, las pruebas y supervisión continuas, los requisitos de rendimiento de los proveedores.
5. Administración de contratos: ayudar a garantizar que los sistemas de IA estén autorizados por un funcionario adecuado antes de su despliegue, poner en marcha procesos de supervisión y seguimiento de los contratos para la ejecución de los contratos y para identificar y mitigar los riesgos emergentes. Organizar una evaluación periódica del valor del sistema o servicio de IA para el gobierno, teniendo en cuenta, en la medida de lo posible, la efectividad, la eficiencia, los riesgos, los costos de operaciones y mantenimiento, y las opiniones de las partes interesadas. Considere los criterios de extinción.
6. Liquidación de contratos: ayuda a garantizar la protección del bloqueo de proveedores, por ejemplo, garantizando derechos continuos y el acceso a cualquier dato o producto derivado.
Para ayudar a los organismos, un centro de un organismo público publicará una o varias guías de acceso público para ayudar al personal de adquisiciones en la adquisición de sistemas de IA, o bien creará un archivo digital a disposición de los servidores públicos que facilite el intercambio de información, conocimientos y recursos sobre las adquisiciones de IA (por ejemplo, buenas prácticas, herramientas, lenguaje para las cláusulas contractuales o costes negociados).
Fuente: (US OMB, 2025[106])
Contratación pública para dar forma al mercado
Más allá de garantizar que los gobiernos adquieren IA confiable para su propio uso, la contratación pública puede actuar como una potente palanca para influir en la dinámica más general del mercado, impulsando la innovación y armonizando el desarrollo de sistemas de IA con principios de IA confiable. La contratación pública representa alrededor del 13% del PIB en los países de la OCDE (OECD, 2024[107]). Al abordar las adquisiciones de manera estratégica, los gobiernos pueden usar el "peso económico del poder adquisitivo del gobierno" para fomentar el desarrollo de soluciones de IA que no solo satisfagan sus necesidades, sino que también promuevan una alineación más amplia con los estándares éticos y regulatorios (World Bank, 2025[108]).
Ampliar el potencial de la IA mediante las alianzas
Los gobiernos pueden beneficiarse enormemente de las alianzas intersectoriales activas y en curso en las que cada sector tiene un papel y contribuciones concretos (OECD/CAF, 2022[30]). Estas alianzas pueden facilitar la colaboración entre entidades públicas y especialistas en IA de otros sectores, incluidas empresas del sector privado y agentes no gubernamentales (por ejemplo, instituciones académicas o fundaciones), promoviendo el desarrollo y la aplicación de soluciones de vanguardia. Las asociaciones público-privadas (PPP, por su sigla en inglés) son quizás el tipo de acuerdo más común. A continuación, se presentan algunos ejemplos:
La iniciativa InvestAI de la UE pretende movilizar 200 000 millones EUR en inversión en IA a través de una PPP similar a un CERN para la IA, con el fin de permitir el desarrollo de sistemas de IA punteros en todos los sectores51.
Como se anunció en la Cumbre de Acción sobre IA de Francia de febrero de 2025, 10 países están desarrollando una plataforma e incubadora de IA de interés público para apoyar, amplificar y reducir la fragmentación entre las iniciativas públicas y privadas existentes sobre la IA de interés público y abordar las brechas digitales. Apoyará los bienes públicos digitales, la asistencia técnica y el desarrollo de capacidades para fomentar un ecosistema de IA confiable para el interés público en materia de IA52 .
El Observatorio de Datos de Chile (DO) es una organización sin fines de lucro liderada conjuntamente por el gobierno, la industria y el mundo académico. Funciona como un centro tecnológico que, a través de la gestión de grandes volúmenes de datos, busca contribuir al bienestar social promoviendo el desarrollo sostenible del país, contribuyendo a la generación de factores propicios para el desarrollo óptimo de la IA y promoviendo la creación de políticas públicas y la toma de decisiones estratégicas basadas en evidencia53.
El asistente virtual de servicios públicos de Portugal dirigido por ChatGPT (véase el Recuadro 5.46) se creó a través de un APP con el gobierno y varias empresas.
El nuevo Centro de Inteligencia Artificial de Letonia es una fundación privada cofundada por el gobierno, el mundo académico y la industria, está diseñado para promover la adopción confiable y sostenible de la IA en todos los sectores, con especial atención a la integración de la IA en la administración pública, y para garantizar la incorporación del idioma y la cultura letones en los sistemas de IA54.
Recurrir a las startups GovTech
Acercando los conceptos de contratación pública y alianzas, GovTech es la colaboración entre el gobierno y las empresas emergentes, los innovadores, los "intraemprendedores" gubernamentales y el mundo académico en soluciones innovadoras de gobierno digital. Complementa la capacidad gubernamental existente para procesos y servicios ágiles, centrados en el usuario, receptivos y rentables (OECD, 2024[109]). Su objetivo es contribuir a un gobierno ágil y mejorar la madurez del gobierno digital. Esto no solo contribuye a mejorar la efectividad y la eficiencia, sino que también puede fomentar la participación de empresas emergentes y proveedores más recientes en el mercado público. La innovación de GovTech se caracteriza por la cocreación y la experimentación. Estas interacciones colaborativas tienen como objetivo trascender las relaciones tradicionales proveedor-contratista para construir nuevas formas de asociación. En lugar de centrarse en los términos de referencia detallados y las especificaciones técnicas, el enfoque de GovTech se centra en los resultados esperados de la solución y en involucrar a los actores de GovTech en su construcción. Si bien muchas de estas colaboraciones fomentan la contratación pública (como se ha comentado anteriormente), también pueden utilizar subvenciones y premios monetarios para incentivar la creación de soluciones innovadoras (por ejemplo, a través de días de demostración o programas de incubación). La OCDE ha desarrollado un marco de políticas GovTech para describir los factores importantes para maximizar los compromisos de GovTech (Gráfico 4.4).
Gráfico 4.4. Marco de trabajo de políticas GovTech de la OCDE
Copiar enlace a Gráfico 4.4. Marco de trabajo de políticas GovTech de la OCDELos gobiernos pueden aprovechar las colaboraciones de GovTech para experimentar y desarrollar sistemas de IA con el fin de abordar desafíos gubernamentales y sociales. El Índice de Gobierno Digital (DGI) de la OCDE de 2023 muestra que el 42% de los 33 países de la OCDE encuestados están estableciendo objetivos GovTech para facilitar las pruebas y la adopción de tecnologías emergentes, incluida la IA. Por ejemplo, España (2024[110]) está utilizando su GobTech Lab para desarrollar proyectos piloto de IA. Un reciente informe de la CE (2024[111]) titulado GovTech: Influencing factors, common requirements and recommendations (GovTech: Factores de influencia, requerimientos comunes y recomendaciones) ofrece otros casos de uso y conclusiones.
Establecer salvaguardas para orientar la IA de forma estratégica y responsable
Copiar enlace a Establecer salvaguardas para orientar la IA de forma estratégica y responsableLas salvaguardas ayudan a garantizar un despliegue, desarrollo y uso confiable de la IA en la administración pública. Pueden ser instrumentos de política vinculantes y no vinculantes, procesos de transparencia y mecanismos de rendición de cuentas, como los órganos de supervisión y control. Las salvaguardas son esenciales para gestionar los riesgos asociados a la IA e implementar la IA de acuerdo con los límites legales y los valores sociales. En última instancia, esto ayuda a generar confianza en el sector público. En las siguientes secciones se examinan las principales salvaguardas, junto con las opciones de políticas disponibles que los gobiernos pueden considerar poner en marcha en sus propios contextos, basándose en ejemplos de buenas prácticas internacionales.
Sin embargo, es importante tener en cuenta que estas salvaguardas deben verse junto con los habilitadores anteriores. Las salvaguardas y su interpretación pueden ser un importante factor de aversión al riesgo, lo que contribuye a los riesgos de inacción y pérdida de oportunidades (véase el Capítulo 1). Los gobiernos también deberían considerar la importancia de eliminar o revisar las salvaguardas que ya no cumplen su propósito o causan consecuencias negativas que sobrepasan sus beneficios.
Por último, este apartado no pretende sugerir que los gobiernos deban establecer necesariamente todas las salvaguardas analizadas en este apartado, ni que deban aplicarse a todos los usos de la IA. Eso también podría contribuir a la aversión al riesgo y obstaculizar la adopción confiable de la IA en el gobierno. En su lugar, los gobiernos deben determinar qué salvaguardas se ajustan a sus operaciones y contextos y aplicarlas a los usos de la IA de una manera basada en el riesgo y proporcional a su nivel potencial de riesgo.
Uso de instrumentos de política para orientar una IA confiable
Los instrumentos de política para promover una IA confiable pueden incluir instrumentos no vinculantes, como documentos de orientación, marcos éticos, normas técnicas y marcos de gestión de riesgos, así como instrumentos vinculantes, como leyes y reglamentos. Estos instrumentos de política trabajan juntos, de la mano con otras salvaguardas para proteger los derechos humanos. Lo hacen a través de enfoques de gestión de riesgos y fomentando el desarrollo y despliegue responsable de la IA. Ayudan a mitigar el uso indebido de la IA, los resultados sesgados, las infracciones de la privacidad y las consecuencias no deseadas, al tiempo que ofrecen herramientas prácticas para aplicar los principios de gobernanza y garantizar un rendimiento coherente en el uso de la IA (UNESCO, 2024[112]). En general, el desarrollo de instrumentos de política para la IA en el gobierno debe seguir un conjunto de buenas prácticas para garantizar que promueven de manera efectiva una IA confiable. Los instrumentos de política deben:
Alinearse con los principios éticos y valores sociales para garantizar que la tecnología sirva al bien común. Esto es importante para mantener la confianza pública, salvaguardar el libre ejercicio de los derechos humanos y garantizar que los sistemas de IA funcionen de manera justa y responsable.
Tener en cuenta tanto la innovación como la gestión de riesgos, ayudando a las organizaciones gubernamentales a navegar de manera responsable por el cambiante panorama de la IA aprovechando el potencial transformador de la IA al tiempo que se abordan los riesgos y desafíos (OECD, 2023[35]; 2021[113]).
Evaluar e identificar de forma continua los posibles riesgos asociados a los sistemas de IA. Las herramientas de evaluación de riesgos ofrecen un enfoque equilibrado, en el que pueden coexistir tanto el uso responsable como los avances de vanguardia, garantizando que la IA beneficie a la sociedad y cumpla con los estándares éticos (UNESCO, 2023[114]).
Involucrar a las partes interesadas a través de diferentes acuerdos institucionales para alinear el uso de la IA con las necesidades y los valores de aquellos a los que afecta (véase la sección Participación de este capítulo).
Instrumentos no vinculantes
Uno de los puntos de entrada más comunes para promover la IA confiable es la adopción o el desarrollo de principios o marcos éticos. Estos instrumentos establecen un conjunto de valores y buenas prácticas que guían el uso de la IA de forma transparente, justa y responsable. En todo el mundo se han desarrollado más de 200 instrumentos de este tipo (Corrêa et al., 2023[115]). Sin embargo, y a menudo, tales principios están integrados en la estrategia nacional de IA de un país. También suelen abordar una amplia gama de preocupaciones éticas en torno a la IA, como los prejuicios, la transparencia, la rendición de cuentas y el impacto de la IA en la sociedad.
Se han logrado avances importantes en la gobernanza mundial de la IA, con varios instrumentos desarrollados por organizaciones intergubernamentales y supranacionales para normalizar y unificar el desarrollo de la IA a escala mundial. Entre ellos se incluyen los Principios de IA de la OCDE (véase la Tabla 2.2 del Capítulo 2), las Directrices Éticas de la CE para una IA confiable y los Principios rectores internacionales del G7 para los sistemas avanzados de IA en el marco del proceso de IA de Hiroshima.55 La Unión Africana (UA) también está trabajando en su propia carta fundacional sobre IA confiable (OECD.AI, 2025[116]). Otros esfuerzos internacionales no vinculantes incluyen la resolución de la Asamblea General de las Naciones Unidas de 2024 sobre la promoción de la "seguridad y la confianza", que fue respaldada por más de 120 países56 así como declaraciones de cumbres internacionales sobre IA, que se han celebrado en el Reino Unido, Corea y Francia57. A nivel nacional, los gobiernos también establecen sus propios marcos éticos. Por ejemplo:
Australia cuenta con los "Principios éticos de inteligencia artificial", diseñados para instar a las organizaciones a considerar el impacto del uso de sistemas basados en la IA y ayudar a las empresas y los gobiernos a aplicar los más altos estándares éticos en el diseño, el desarrollo y la implementación de la IA. Sobre la base de este marco, la Norma Voluntaria de Seguridad en IA (VAISS, por su sigla en inglés) de Australia ofrece orientación práctica a todas las organizaciones australianas sobre cómo utilizar e innovar con IA de forma segura y responsable58.
En Colombia, el "Marco ético para la inteligencia artificial" ofrece un conjunto de principios y una metodología que deben tenerse en cuenta en el diseño, desarrollo e implementación de sistemas de IA (OECD, 2024[3])59 .
Egipto ha elaborado una "Carta Egipcia para la IA Responsable" en torno a principios clave.60
Los gobiernos elaboran cada vez más documentos de orientación para el uso de la IA. Estas son comparables a las directrices anteriormente descritas, que sirven como habilitadores, pero se centran más en establecer los parámetros para un uso confiable de la IA. Estos documentos, normalmente dirigidos a servidores públicos responsables del desarrollo de proyectos de IA y de gestionar una amplia recopilación y análisis de datos, pretenden dotar a los servidores públicos de los conocimientos necesarios para dar forma ética a los proyectos de IA y concienciar sobre los posibles riesgos, incluidas, entre otras, las violaciones de los datos personales (OECD/UNESCO, 2024[29]). Estas directrices son más concretas que los principios, ya que suelen abordar aspectos técnicos que pueden afectar al despliegue de la IA. Por ejemplo:
En el Reino Unido, el gobierno y el Instituto Alan Turing desarrollaron conjuntamente una guía para "Comprender la ética y la seguridad de la IA" (2019[117]). En Canadá, la "Guía sobre el uso de la IA generativa" sirve de recurso a las instituciones federales que utilizan tecnologías de IA generativa (OECD/UNESCO, 2024[29])61.
Alemania cuenta con dos conjuntos principales de directrices para garantizar el uso ético de la IA en los servicios públicos: las Directrices para el uso de la IA en los servicios de empleo y protección social; y las Directrices de la IA para la administración federal (OECD/UNESCO, 2024[29]; Policy Lab Digital, Work & Society within the German Federal Ministry of Labour and Social Affairs, 2024[118]). Este último ya ha sido publicado, mientras que el primero está en desarrollo62.
Es importante señalar que las medidas no vinculantes tienen un alcance limitado. Por ejemplo, en lo que respecta a la IA en el lugar de trabajo, las medidas específicas de la mayoría de los países de la OCDE para promover una IA confiable en el lugar de trabajo no son principalmente vinculantes y dependen de la capacidad de las organizaciones para autorregularse (OECD, 2023[119]). Debido a su naturaleza no vinculante, este tipo de instrumentos también llamados leyes blandas, puede no ser suficiente para prevenir o reparar los daños relacionados con la IA en el lugar de trabajo. Los gobiernos también deberían considerar medidas vinculantes para superar esta limitación en áreas importantes.
Instrumentos vinculantes
Hasta la fecha, la mayoría de las medidas vinculantes para la IA en el gobierno se han puesto en marcha a nivel nacional y subnacional, como se analiza a continuación. Sin embargo, algunos mecanismos internacionales han entrado en acción recientemente. Quizás el ejemplo más notable sea el Reglamento de IA de la UE (Recuadro 1.2). Más recientemente, el Convenio Marco del Consejo de Europa sobre IA y Derechos Humanos, Democracia y Estado de Derecho (2024[120]) fue aprobado como el primer tratado internacional jurídicamente vinculante sobre la IA. Abierto a la firma en septiembre de 2024, se aplica tanto al sector público como al privado. Su objetivo es garantizar que las actividades dentro del ciclo de vida de los sistemas de IA sean plenamente coherentes con los derechos humanos, la democracia y el Estado de Derecho, al tiempo que propician el progreso tecnológico y la innovación. En septiembre de 2025, el tratado contaba con 17 signatarios, entre ellos la Unión Europea y el Reino Unido, así como países no europeos, como Canadá, Japón y Estados Unidos.
Las leyes y regulaciones nacionales sobre IA pueden regular las actividades a lo largo del ciclo de vida de la IA y abordar cuestiones como la protección de los datos, la privacidad, el uso indebido y otras preocupaciones. Estas normas ayudan a garantizar que el desarrollo de la IA se ajuste a los valores sociales y a las normas jurídicas, al ofrecer a los desarrolladores una orientación clara sobre el cumplimiento normativo y al establecer límites a través de normas vinculantes en materia de transparencia, rendición de cuentas y equidad (OECD, 2025[121]). También pueden definir la responsabilidad con respecto a los resultados de la IA y promover la coherencia y cooperación entre jurisdicciones mediante la armonización de las normas. En última instancia, unas leyes y reglamentos adecuados y bien ajustados ayudan a promover la innovación, al tiempo que instauran las protecciones necesarias, garantizando que la IA sirva al interés público. Estos instrumentos vinculantes pueden ser leyes generales de gobernanza de la IA que afecten a todos los sectores, leyes específicas de la IA centradas en el uso gubernamental y leyes transversales relacionadas con la IA pero no específicamente dirigidas a ella.
Sin embargo, los gobiernos deben tener en cuenta la naturaleza dinámica de la IA en el presente y sus muchas trayectorias potenciales en el futuro. Como se analiza en el Capítulo 3, los servidores públicos se enfrentan a desafíos debido a las normas confusas u obsoletas que limitan su capacidad para adoptar la IA. Al elaborar instrumentos nacionales vinculantes, deben tratar de alinearse con la Recomendación de la OCDE sobre Gobernanza regulatoria ágil para aprovechar la innovación (2021[122]). El Reino Unido ha intentado conseguirlo mediante su "enfoque a favor de la innovación en la regulación de la IA"63.
Las leyes generales sobre gobernanza de la IA son normas generales que rigen los sistemas de IA en diversos sectores económicos, ámbitos de actuación y regiones. Se centran en establecer marcos para la gestión de riesgos de la IA, el uso ético y el impacto social. Si bien muchos países cuentan con leyes que pueden influir en la IA (por ejemplo, leyes de protección de datos), pocos cuentan con leyes formales específicas sobre la IA. Las leyes y regulaciones nacionales existentes o propuestas incluyen:
Ley básica de Corea sobre el desarrollo de la IA y el establecimiento de una base de confianza, o "Ley básica de IA" (2024[123]), que entrará en vigor en enero de 2026, establece un marco integral para promover la innovación en IA y, al mismo tiempo, garantizar normas éticas, seguridad y confianza pública para todas las organizaciones que utilizan IA en el mercado coreano.
Bahréin y Omán presentaron un proyecto de legislación sobre IA en 2024, tras lo cual Omán aplicó una consulta pública64.
Gobiernos de América Latina (como Argentina, Brasil, Chile, Colombia, Costa Rica, Ecuador, México, Panamá, Perú y Uruguay) están debatiendo legislación general sobre IA (UNESCO, 2024[112]).
También pueden elaborarse leyes y reglamentos específicos que rijan el uso de los sistemas de IA en la administración. Suelen centrarse en la transparencia, la rendición de cuentas, la gobernanza de la IA en las organizaciones públicas, las consideraciones éticas y el uso responsable de IA en funciones y servicios. En los Estados Unidos, a nivel subnacional, los Estados han tomado medidas en esta dirección. Por ejemplo, Nueva York introdujo la Ley LOADing en 2024 para limitar el uso de sistemas automatizados de toma de decisiones por parte de los organismos estatales y proporcionar algunas protecciones a los servidores públicos en relación con la IA (Werner, 2024[124]). Delaware ha reforzado la supervisión de la IA y la IA generativa en el estado (2024[125]). Sin embargo, la adopción de leyes o reglamentos específicos sobre IA para uso gubernamental sigue siendo limitada, y la mayoría de los marcos surgen como parte de iniciativas más amplias de gobernanza de la IA. Además de leyes y regulaciones estrictas, la orientación formal en materia de políticas también puede proporcionar reglas vinculantes para las organizaciones gubernamentales. Por ejemplo, el memorándum de Estados Unidos de 2025 sobre "Aceleración del uso federal de la IA a través de la innovación, la gobernanza y la confianza pública" abarca una serie de cuestiones y medidas para garantizar una IA confiable en el gobierno y, al mismo tiempo, eliminar los obstáculos a la innovación (Recuadro 4.1)65.
Las leyes transversales son leyes más amplias que, si bien no son exclusivas de la IA, tienen implicancias significativas para su implementación y uso en el gobierno. Entre ellas podrían figurar regulaciones sobre protección de datos, privacidad, riesgos cibernéticos y derechos humanos, que determinan cómo pueden usarse los sistemas de IA en contextos del sector público. Por ejemplo, la legislación en materia de protección de datos y privacidad salvaguarda la información personal estableciendo normas sobre la forma en que los sistemas de IA recopilan, almacenan y procesan los datos, garantizando así el respeto de los derechos de privacidad de las personas. Si bien no suelen estar diseñadas específicamente para la IA, tienen implicancias significativas para su uso. Por ejemplo, el RGPD de la UE establece requisitos específicos para la gestión de datos personales en todos los sectores, que abarcan aspectos como la recopilación de datos, el almacenamiento, el tratamiento y los derechos de las personas.
Fomento de la transparencia en el uso de la IA por parte del sector público
Para ser transparentes sobre el uso de la IA, los gobiernos deben, en la medida en que sea factible y apropiado, hacer que los algoritmos sean abiertos, comprensibles y accesibles para el escrutinio público, así como divulgar los procesos y decisiones a los que contribuyen los sistemas de IA. Esto significa que los gobiernos deben facilitar información clara y adecuada para cada contexto sobre el funcionamiento de sus sistemas de IA, los datos que utilizan y la forma en que llegan a conclusiones y resultados, así como mecanismos para cuestionar los resultados. Dicha transparencia permite a las partes interesadas acceder a la información, tomar decisiones informadas y, si es necesario, buscar reparación por los posibles daños. Diseñar un enfoque coherente, sostenible e impactante sobre la transparencia algorítmica de la IA implica divulgar información clave sobre los sistemas y algoritmos de IA utilizados. Esto incluye activos complementarios como los datos de formación; la colaboración con un conjunto amplio y diverso de partes interesadas para garantizar que se tengan en cuenta sus necesidades e inquietudes (véase la sección "Participación" de este capítulo); la promoción de la alfabetización en IA para empoderar a las comunidades a fin de que tengan una voz informada en las cuestiones que les afectan; y el fortalecimiento de las normas nacionales existentes sobre transparencia y rendición de cuentas para abordar de manera efectiva los desafíos y riesgos planteados por la IA.
La transparencia no solo promueve la confianza y mejora el valor público, sino que también sustenta la rendición de cuentas por parte del gobierno. Como se contempla en los Principios de IA de la OCDE, la transparencia y rendición de cuentas son dos conceptos diferentes pero complementarios. La transparencia permite una supervisión más informada, fomenta la confianza y aumenta la rendición de cuentas de quienes desarrollan o controlan estos sistemas. La transparencia también mejora la equidad de los sistemas impulsados por la IA y ayuda a garantizar que su implementación pueda supervisarse y evaluarse de manera efectiva, especialmente cuando las decisiones tienen un impacto directo en la vida de las personas en ámbitos como la atención sanitaria, las finanzas y la justicia penal.
Los países deben emplear diversas políticas, herramientas, métodos y enfoques en materia de transparencia que se adapten a su público y proporcionen información clara. En términos generales, estos instrumentos pueden clasificarse como proactivos o reactivos (GPAI, 2024[126]).
Instrumentos proactivos de transparencia
En general, "la comprensión del sector público sobre su propio uso de IA es muy deficiente, lo que dificulta tanto la rendición de cuentas democrática como el intercambio interno de conocimientos" (Ada Lovelace Institute, 2025[23]). Se necesitan instrumentos que permitan a los gobiernos entender su propio uso de la IA y, por extensión, que les permitan compartir proactivamente información sobre los sistemas de IA utilizados en la administración pública sin que se les solicite (GPAI, 2024[126]). Entre las opciones de actuación en materia de transparencia proactiva se incluyen los registros públicos de sistemas de IA, la publicación de código fuente y documentación de algoritmos, las publicaciones proactivas impulsadas por el usuario y las respuestas automatizadas activadas por interacciones.
Los registros públicos de sistemas de IA son cada vez más comunes, ya que sirven como repositorios centralizados que consolidan la información sobre los sistemas de IA utilizados actualmente en el gobierno. El objetivo es crear una "ventanilla única" en la que la ciudadanía y las partes interesadas puedan acceder fácilmente a información sobre los sistemas de IA en uso, sus fines, los sectores a los que se aplican y las jurisdicciones a las que afectan. Algunos ejemplos son:
Conjunto de datos de Colombia sobre sistemas automatizados de decisión en la administración pública colombiana66.
Registros algorítmicos de transparencia del Reino Unido67.
Inventario de casos de uso de IA del gobierno estadounidense, que las agencias federales deben actualizar al menos una vez al año (US OMB, 2025[17])68.
Inventarios de algoritmos públicos de gobiernos nacionales en Chile, Francia y Países Bajos Inventario de algoritmos públicos69.
Algoritmo subnacional registra Ámsterdam, Países Bajos, y Helsinki, Finlandia70.
El desarrollo de un registro central y público de sistemas de IA en el que se puedan realizar búsquedas es una buena práctica que mejora la transparencia. Sin embargo, hacerlo puede resultar complicado, en parte debido a la rapidez con la que los gobiernos están implantando sistemas de IA en diversos ámbitos. En Chile, las dificultades para hacer transparentes los usos de la IA provocaron que el Consejo de Transparencia chileno, un organismo independiente creado por ley, emitiera recomendaciones sobre la mejora de la transparencia algorítmica en el gobierno (2024[127]). En los Países Bajos, hasta octubre de 2024, solo alrededor del 5 % de los sistemas de IA se habían publicado en el registro neerlandés de IA (Netherlands Court of Audit[128]). En el Reino Unido, el Comité de Cuentas Públicas (PAC) (2025[129]) descubrió que se habían publicado relativamente pocos (33) registros algorítmicos de transparencia, lo que ponía en peligro la confianza pública en la adopción de la IA en el gobierno. Sin embargo, estos registros podrían completarse automáticamente, dependiendo de si el gobierno lleva a cabo evaluaciones de impacto y riesgo y de cómo lo hace (OECD, 2024[95]). Por ejemplo, la Directiva canadiense sobre la toma de decisiones automatizada exige la realización de una evaluación de impacto algorítmico (EIA) para los sistemas de decisión automatizada. Los resultados de la evaluación del impacto económico deben publicarse como información abierta en el Portal de gobierno abierto de Canadá. Si fuera necesario para todos los sistemas de IA, dicho proceso podría llenar automáticamente un registro público.
La publicación del código fuente y la documentación del algoritmo también fomenta la transparencia. El código de código abierto para algoritmos públicos se considera una buena práctica en transparencia algorítmica y es especialmente valioso para el público técnico y experto (Ada Lovelace Institute, 2021[130]). Esto permite a quienes poseen las habilidades necesarias examinar, probar y verificar el funcionamiento de estos sistemas, promoviendo la rendición de cuentas y la confianza. Algunos esfuerzos son un paso más allá de la publicación del código fuente completo, pero requieren la publicación de documentación exhaustiva que puede tener un efecto similar.
En Francia, la ley de la República Digital obliga a los organismos gubernamentales a "poner a disposición del público, en un formato abierto y fácilmente reutilizable, las normas que definen el principal procesamiento algorítmico utilizado en el cumplimiento de su misión, cuando dicho procesamiento es la base de decisiones individuales"71.
El Estándar de Registro de Transparencia Algorítmica (ATRS, por su sigla en inglés) del Reino Unido obliga a las organizaciones del sector público a divulgar de forma transparente los detalles sobre su uso de métodos algorítmicos en los procesos de toma de decisiones (OECD, 2023[131])72.
En Canadá, la Directiva sobre la toma de decisiones automatizada establece explícitamente, de forma detallada, requisitos de explicabilidad para los sistemas de IA diferenciados por niveles de riesgo, determinados por el uso de una herramienta de evaluación algorítmica de impacto (cuyos resultados también deben publicarse)73.
El memorándum estadounidense analizado en el Recuadro 4.1 exige que los organismos del gobierno federal, cuando sea factible y esté sujeto a algunas exclusiones, publiquen y mantengan código de IA como software de código abierto en un repositorio público.
Los esfuerzos en materia de transparencia también pueden ser iterativos, como se observa en las publicaciones proactivas impulsadas por los usuarios. Este tipo de publicaciones proactivas implica que las entidades públicas opten por divulgar información de forma proactiva después de recibir numerosas solicitudes similares. Al publicar esta información de forma proactiva, se evitan futuras solicitudes, lo que ahorra tiempo tanto a los funcionarios como a los solicitantes. Aunque su uso para garantizar la transparencia algorítmica no está bien documentado, este enfoque podría ser un método pertinente y rentable para divulgar la información relacionada con los algoritmos que se solicita con frecuencia (GPAI, 2024[126]).
Es posible que algunos tipos de divulgaciones solo se realicen para algunos usuarios en situaciones específicas del contexto. Las respuestas automatizadas desencadenadas por interacciones ocurren cuando la información sobre un sistema automatizado de toma de decisiones se proporciona automáticamente durante procesos gubernamentales específicos. Por ejemplo, cuando alguien interactúa con el sitio web o la plataforma en línea de un organismo público en relación con un servicio o procedimiento administrativo que implica un sistema automatizado de toma de decisiones, la información pertinente sobre el sistema podría divulgarse automáticamente, sin que el usuario tenga que solicitarlo explícitamente (GPAI, 2024[126]).
Instrumentos de transparencia reactivos
Los instrumentos de transparencia de la divulgación de información reactiva permiten al gobierno responder a solicitudes específicas de información de personas, grupos o autoridades. A diferencia de la divulgación proactiva, este enfoque se inicia a través de la demanda externa, en lugar de la divulgación proactiva del gobierno (GPAI, 2024[126]). Para ello, es preciso presentar una solicitud en virtud de la ley de acceso a la información (ATI, por su sigla en inglés) pertinente del país para obtener información sobre un algoritmo o su uso, aprovechando un instrumento de política ya existente ampliamente disponible en la mayoría de los contextos o países74. Sin embargo, estos regímenes no están diseñados específicamente para la transparencia algorítmica y pueden ser ineficaces cuando se aplican en este contexto (Valderrama, Hermosilla and Garrido, 2023[132]). Por ejemplo, es poco probable que solicitar información sobre el código fuente de un algoritmo o sobre su aplicación produzca los resultados deseados debido a problemas con las prácticas de gestión de registros y a excepciones habituales de las leyes de la ATI, como conflictos con las restricciones de propiedad intelectual y los secretos comerciales de proveedores privados de servicios públicos (Fink, 2017[133]; Brauneis and Goodman, 2017[134]).
Mayor rendición de cuentas mediante la gestión de riesgos a lo largo del ciclo de vida de los sistemas de IA
Para algunos sistemas de IA gubernamentales, el contexto de su desarrollo o uso puede plantear un mayor riesgo. Esto puede estar relacionado con su escala (gravedad y probabilidad de impacto negativo), alcance (ámbito de aplicación, como el número de personas afectadas) u opcionalidad (grado de elección de si deben estar sujetas a los efectos de un sistema de IA) (OECD, 2022[58]). Los procedimientos de gestión de riesgos pueden ayudar a identificar qué sistemas o contextos plantean mayores riesgos para mitigarlos (OECD, 2023[135]).
La gestión de riesgos para los sistemas de IA que pueden conllevar elevados riesgos debe fundamentarse en orientaciones sobre qué niveles de riesgo son aceptables para diferentes usos y contextos. La gestión del riesgo es necesaria tanto antes —por ejemplo, mediante evaluaciones ex ante del impacto y del riesgo— como después del despliegue de los sistemas de IA. Uno de los ejemplos más conocidos es el Marco de gestión de riesgos de la IA del Instituto Nacional de Estándares y Tecnología (NIST, por su sigla en inglés) de los Estados Unidos (2023[136]). Este marco ayuda a las organizaciones públicas o privadas a identificar los riesgos únicos que plantea la IA generativa y propone acciones para una gestión de riesgos de la IA generativa que se ajusten mejor a sus objetivos y prioridades. Aunque está diseñado para los EE.UU, se ha traducido a varios otros idiomas y se ha utilizado en otros países. El Código de Conducta y los Principios Rectores Internacionales del Proceso de IA de Hiroshima del G7 para los Sistemas Avanzados de IA también establecen normas de referencia para gestionar los riesgos (2023[137]; [138]). EE.UU también exige evaluaciones de riesgos para el uso de la IA y establece prácticas de gestión de riesgos para los usos considerados de "alto impacto" (véase el recuadro 1.3) (US OMB, 2025[17]). Otro ejemplo nacional es la Oficina de Transformación Digital de Türkiye, que lleva a cabo los estudios "Recomendación sobre la gestión del riesgo en el ámbito de la IA" y "Sello de IA confiable" para supervisar de cerca el uso de la IA en beneficio del público (OECD, 2024[3]).
Los expertos en IA recomiendan que los gobiernos prioricen el establecimiento o adopción de dichos procesos para mitigar los daños causados por la IA (OECD, 2024[139]). Sin embargo, la proliferación de marcos puede dificultar que los gobiernos determinen cuál es el más adecuado para seguir. Dado que las solicitudes de desarrollo de marcos de gestión de riesgos siguen creciendo, la interoperabilidad mejoraría la eficiencia y reduciría los costos de cumplimiento y aplicación. La OCDE (2023[140]) está trabajando activamente para promover la coherencia de las políticas y la interoperabilidad entre estos marcos75.
Evaluaciones de impacto
Las evaluaciones de impacto, incluidas las evaluaciones de impacto algorítmico (EIA), pueden ayudar a las organizaciones públicas a anticipar y evaluar cómo puede funcionar un algoritmo en un contexto específico. Se trata de evaluaciones de un sistema de IA que utilizan avisos, talleres, documentos y conversaciones con los desarrolladores de un sistema de IA y otras partes interesadas para explorar cómo el sistema afectará a las personas o a la sociedad de manera positiva o negativa (Valderrama, Hermosilla and Garrido, 2023[132]). Estos suelen producirse en las primeras fases de desarrollo de un sistema antes de su utilización (ex ante), pero pueden ocurrir después de su implementación (ex post).
El objetivo principal de las EIA ex ante es evaluar los posibles impactos de un sistema algorítmico en las economías y las sociedades y proporcionar un mecanismo de rendición de cuentas (Valderrama, Hermosilla and Garrido, 2023[132]). Las EIA también ayudan a comprender, clasificar y mitigar mejor los posibles riesgos o daños asociados al algoritmo. Un ejemplo que emplea esa técnica es la "Directiva sobre la toma de decisiones automatizada" de Canadá, que requiere una evaluación del impacto ambiental que tenga en cuenta diversos factores y, a su vez, proporcione una puntuación de riesgo que prescriba determinadas acciones. El enfoque se ha adaptado en otros países, como Uruguay, donde se basó en su Guía para el estudio de impacto algorítmico (OECD/CAF, 2022[30]). En 2024, el Consejo de Europa publicó la Evaluación de Impacto sobre los Derechos Humanos, la Democracia y el Estado de Derecho (HUDERIA)76. Su metodología prevé la creación de una evaluación de riesgos y un plan de mitigación para minimizar o eliminar los riesgos identificados, protegiendo al público de posibles daños.
Las EIA ex ante son el enfoque más común en uso en la actualidad. En general, la OCDE ha apoyado este enfoque porque ayuda a convertir los principios en acciones77. Sin embargo, algunos sostienen que evaluar los impactos no es lo mismo que evaluar los daños y que, en algunos casos, hacerlo puede ocultar los daños reales. Esto se debe en parte a que las métricas utilizadas para las evaluaciones de impacto a menudo no miden el daño emocional o psicológico (Gupta et al., 2021[141]). Este trabajo también sugiere que EIA AIA a menudo no tienen en cuenta las voces de todos los que pueden verse afectados por un sistema de IA. Otros críticos de las evaluaciones de impacto argumentan que estas evaluaciones no están diseñadas para monitorear continuamente los efectos de los sistemas implementados y adaptarse en consecuencia en función de los comentarios y las ramificaciones del mundo real (Mehta, Rogers and Gilbert, 2023[142]). Hallazgos recientes del Instituto Ada Lovelace (2025[23]). Sin embargo, las lecciones aprendidas durante los seis años de estudio de la IA en el gobierno subrayan aún más este punto. Uno de sus principales hallazgos es que "la IA es ‘sociotécnica’, en la medida en que influye y se ve influenciada por los contextos sociales en los que se despliega, a menudo con efectos dominó no deseados. El éxito y la aceptación de las herramientas de IA dependen de su interacción con los sistemas sociales, los valores y la confianza existentes. Centrarse exclusivamente en criterios técnicos sin tener en cuenta estos factores puede llevar al escepticismo y, en última instancia, dificultar su adopción y uso".
Para garantizar que las EIA sean valiosas, los gobiernos tendrán que realizar evaluaciones sociotécnicas exhaustivas que involucren a las partes interesadas apropiadas e integren diversas perspectivas (Lam et al., 2023[143]). Sin embargo, las evaluaciones ex ante por sí solas suelen ser insuficientes; deben complementarse con evaluaciones de impacto ex post que se basen en las evaluaciones de impacto ex ante. Esto implica el desarrollo de mecanismos de seguimiento, adaptación y rendición de cuentas continuos, que garanticen que los sistemas de IA evolucionan en respuesta a las evidencias del mundo real. El NIST de EE. UU. ha puesto en marcha la herramienta Evaluación de Riesgos e Impactos de la IA (ARIA, por su sigla en inglés) para avanzar en las pruebas sociotécnicas y la evaluación de la IA78.
En lo que respecta a las evaluaciones de impacto ex ante, los gobiernos deben considerar de antemano si la IA es la mejor solución para abordar un problema determinado, como se analiza en la sección de habilitadores sobre "Determinar si la IA es la mejor solución".
Auditorías algorítmicas
Después del despliegue de un sistema de IA, es importante que los gobiernos continúen monitoreando sus comportamientos para determinar qué riesgos esperados o inesperados se pueden estar materializando, y para garantizar que las organizaciones gubernamentales continúen con la implementación de manera responsable. Esto suele adoptar la forma de auditorías algorítmicas. Implican un control independiente, generalmente externo, de un sistema de IA o de los procesos que lo rodean. Pueden ser auditorías técnicas de las entradas o salidas del sistema; auditorías de cumplimiento para determinar si un equipo de desarrollo de IA ha completado los procesos o los requisitos reglamentarios; inspecciones regulatorias por parte de los reguladores para supervisar el comportamiento de un sistema de IA a lo largo del tiempo; o auditorías sociotécnicas que evalúen las formas en que un sistema está afectando a procesos y contextos sociales más amplios en los que está operando. Dado que las auditorías suelen llevarse a cabo después de que un sistema está en uso, sirven como mecanismos de rendición de cuentas para verificar si un sistema se comporta como los desarrolladores pretenden o afirman. En el se pueden ver ejemplos de procesos de auditoría algorítmica en el Recuadro 4.8.
Sin embargo, los gobiernos deben diseñar cuidadosamente sus auditorías. Las deficiencias en la auditoría de la IA podrían crear una falsa confianza y "ocultar problemas con los sistemas algorítmicos y crear una estructura de permisos en torno a una IA mal diseñada o implementada" (Goodman and Trehu, 2022[144]). Algunos expertos sostienen que una auditoría insuficiente puede no tener sentido o exacerbar los problemas que se pretende abordar, además de utilizarse como "lavado de cuentas" para dar la apariencia de debida diligencia.
Evaluaciones de riesgos de las capacidades de los sistemas de IA
Las evaluaciones de riesgos de las capacidades de los sistemas de IA son similares a las evaluaciones de impacto, pero analizan específicamente la probabilidad de que se produzcan resultados perjudiciales en un sistema de IA debido a las capacidades de un sistema. Estos también suelen ocurrir en las primeras etapas del desarrollo de un sistema antes de que esté en uso, pero pueden ocurrir después de que se haya implementado un sistema. Dichos enfoques deben tener en cuenta los riesgos relacionados con las limitaciones y capacidades de los sistemas de IA, así como los contextos de uso. Por ejemplo, el gobierno de Queensland, Australia, emitió una "directriz fundacional de evaluación de riesgos en materia de IA" para los servidores públicos79. La evaluación de riesgos se ha vuelto cada vez más común en el sector privado para los sistemas de IA avanzados, como en el caso de las "políticas de escalado responsable" (RSP, por su sigla en inglés), que se comprometen a adoptar medidas basadas en la evaluación de riesgos de las capacidades de los sistemas de IA (OECD, 2024[139]). Al identificar capacidades potencialmente peligrosas, los RSP suelen establecer umbrales que desencadenan acciones para ralentizar o detener el desarrollo (METR, 2023[145])80 .
Los organismos de ensayo y evaluación y los organismos nacionales, multilaterales o regionales, como los institutos de seguridad y protección de la IA, desempeñan un papel cada vez más importante en la facilitación de la gestión de riesgos, en particular, mediante la creación de ecosistemas de ensayo y evaluación (OECD, 2024[139]). Por ejemplo, el DSIT del Reino Unido proporcionó orientación sobre la ampliación responsable de las capacidades81.
En relación con la abundancia de ejemplos de gobiernos que utilizan evaluaciones de impacto o auditorías algorítmicas, son pocos los ejemplos de gobiernos que han desarrollado o utilizado otras evaluaciones de riesgos de IA en su administración. Esto puede deberse a que la mayoría de los sistemas públicos de IA se adquieren a empresas del sector privado, que pueden llevar a cabo evaluaciones de riesgos antes de poner sus productos en el mercado. También puede deberse a que los sistemas de IA gubernamentales, tal como se analiza en el Capítulo 2, a menudo no aprovechan los últimos enfoques y, en cambio, se basan en sistemas basados en reglas o en enfoques de aprendizaje automático más establecidos. Aun así, los gobiernos deben considerar y utilizar estos enfoques de evaluación de riesgos en su intento de utilizar sistemas de IA más avanzados y capaces. Por ejemplo, además de las pruebas estructuradas, los gobiernos podrían llevar a cabo pruebas de confrontación —comúnmente conocidas como red-teaming— especialmente para modelos de base complejos utilizados o adquiridos por los gobiernos, con el fin de identificar proactivamente vulnerabilidades, riesgos de uso indebido y actividades o productos nocivos del sistema en aplicaciones gubernamentales sensibles. Las evaluaciones de la capacidad también podrían incluir evaluaciones específicas de cada idioma, en particular para los programas de aprendizaje permanente utilizados en los servicios públicos multilingües. Estas evaluaciones podrían ayudar a garantizar un desempeño justo, abordar los desequilibrios de datos en los modelos de base y ayudar a verificar que los modelos sean adecuados para los idiomas a los que sirven.
Empoderar a los órganos de supervisión y asesoramiento para orientar una IA responsable
Entidades de supervisión
El papel de los órganos de supervisión está evolucionando para hacer frente a los nuevos desafíos que plantea la expansión del uso de la IA en todo el gobierno. Por ejemplo, las Entidades Fiscalizadoras Superiores (EFS)82 están obligadas cada vez más a ampliar sus actividades de auditoría para incluir el escrutinio de los algoritmos de IA que sustentan las operaciones gubernamentales y las decisiones públicas. Este cambio requiere una evaluación exhaustiva de los algoritmos de IA no solo por su precisión, seguridad y efectividad, sino también por su transparencia y equidad. El Recuadro 4.8 muestra cómo las EFS han adaptado su función a la realización de auditorías algorítmicas y han desarrollado los marcos para ello.
Las auditorías sirven para una serie de propósitos, entre los que se incluyen evaluar el rendimiento de los sistemas algorítmicos con respecto a los estándares establecidos, garantizar el cumplimiento de la regulación, detectar la discriminación ilegal, mejorar la transparencia y la explicabilidad, evaluar la seguridad y la solidez, evaluar los impactos sociales y éticos más amplios y responsabilizar a las organizaciones por sus sistemas. Además, las inspecciones pueden servir para detectar fallos sistémicos en el uso de sistemas algorítmicos, ofreciendo información valiosa que puede servir de base para su aplicación en otro contexto (Ada Lovelace Institute, 2021[130]).
Recuadro 4.8. Enfoques y herramientas de auditoría algorítmica del sector público
Copiar enlace a Recuadro 4.8. Enfoques y herramientas de auditoría algorítmica del sector públicoFrancia
En 2024, la Corte de Cuentas (Cour des Comptes en francés) francesa evaluó la integración de la IA en el Ministerio de Economía y Hacienda. Desde 2015, el ministerio ha puesto en marcha 35 programas de IA destinados a detectar riesgos de fraude individuales, identificar dificultades comerciales y ofrecer respuestas más rápidas a los usuarios. Si bien los aspectos tecnológicos están bien gestionados, el informe concluye que las consideraciones éticas, de recursos humanos y ambientales siguen sin explorarse. El Tribunal recomendó una supervisión ministerial sólida para garantizar una IA pública confiable, una mejor evaluación y una asignación transparente de los aumentos de productividad, y una anticipación proactiva del impacto de la IA en las funciones del personal
Países Bajos
El Tribunal de Cuentas neerlandés, órgano independiente, ha auditado el uso de algoritmos por parte del Gobierno Neerlandés. A través de su evaluación, el Tribunal desarrolló un marco de auditoría concebido específicamente para evaluar el uso de algoritmos en la administración. El marco evalúa una amplia gama de aspectos, desde la gobernanza y la rendición de cuentas hasta aspectos técnicos como los sistemas de IA y los datos, la privacidad, los controles generales de TI y las consideraciones éticas. El marco se está utilizando en varias instituciones holandesas para orientar su desarrollo de nuevos algoritmos. En 2022, auditó nueve algoritmos importantes del sector público y descubrió que seis (67%) no cumplían los requisitos básicos, lo que expuso al gobierno a sesgos, filtraciones de datos y acceso no autorizado.
Suecia
La Oficina Nacional de Auditoría de Suecia llevó a cabo una auditoría de tres sistemas automatizados de adopción de decisiones utilizados por el Gobierno Sueco: la prestación parental en la Agencia de la Seguridad Social Sueca, el impuesto anual sobre la renta de los particulares en la Agencia Tributaria Sueca y los permisos de aprendiz de permiso de conducción en la Agencia Sueca de Transporte. La fiscalización tenía por objeto evaluar si estos sistemas funcionaban de manera efectiva y eficiente, salvaguardando al mismo tiempo la seguridad jurídica en la toma de decisiones. Evaluó el rendimiento de los sistemas con respecto a las normas legislativas en materia de eficiencia y seguridad jurídica, identificando deficiencias específicas.
Reino Unido
En 2024, la Oficina Nacional de Auditoría (NAO, por su sigla en inglés) del Reino Unido publicó un Informe sobre la IA en el gobierno, en el que se examina la efectividad con la que los organismos gubernamentales del Reino Unido están utilizando la IA para los servicios públicos. Concluyó que solo el 21 % de los 87 organismos analizados contaban con una estrategia de IA, como exige la política, mientras que el 61 % tenía previsto desarrollar una. Entre las iniciativas destacadas se incluyen el establecimiento por parte del Departamento de Trabajo y Pensiones de una junta directiva de IA y un grupo independiente de asesoría y garantía, y el establecimiento por parte del Ministerio de Justicia de un grupo directivo de IA para revisar casos de uso individuales de IA, junto con la adopción de paneles de consulta sobre algoritmos, que incluyan a usuarios finales y especialistas en ética de datos.
Estados Unidos
La Oficina de Responsabilidad del Gobierno de Estados Unidos (GAO, por sus siglas en inglés) publicó un marco de rendición de cuentas del uso de IA para agencias federales y otras entidades, en el que se identifican prácticas clave de rendición de cuentas —centradas en torno a los principios de gobernanza, datos, desempeño y supervisión— para ayudar a las agencias federales y otras entidades a utilizar la IA de manera responsable.
Colaboración transfronteriza
Las Entidades Fiscalizadoras Superiores (EFS) de Alemania, Finlandia, Noruega, los Países Bajos y el Reino Unido emiten colectivamente algoritmos de auditoría de aprendizaje automático: Un libro blanco para los auditores públicos, que se actualiza a lo largo del tiempo.
Fuente: https://www.ccomptes.fr/fr/publications/lintelligence-artificielle-dans-les-politiques-publiques-lexemple-du-ministere-de, https://english.rekenkamer.nl/publications/reports/2021/01/26/understanding-algorithms, https://www.riksrevisionen.se/download/18.2008b69c18bd0f6ed3f25040/1608291082190/RiR_2020_22_en-GB.pdf, (Ada Lovelace Institute, 2021[130]), https://www.gao.gov/products/gao-21-519sp, https://www.auditingalgorithms.net, (OECD, 2023[131]), https://www.nao.org.uk/reports/use-of-artificial-intelligence-in-government.
Los órganos de supervisión sirven de plataformas que reúnen diversos conocimientos especializados y perspectivas, lo que es importante para la efectividad de cualquier mecanismo de rendición de cuentas (Ada Lovelace Institute, 2021[130]). Por ejemplo:
En 2023, España creó la Agencia Española de Supervisión de la IA (AESIA), una entidad independiente (Pehlivan and Valín, 2023[146]).
En 2024, la Ley de IA de la UE estableció un Consejo Europeo Supervisor de Inteligencia Artificial (IA)83.
Los/as defensores/as del pueblo desempeñan un papel fundamental de supervisión del uso de la IA por parte de las organizaciones públicas. Por ejemplo, el Defensor del Pueblo Europeo ha investigado el uso de la IA por parte de la CE,84 y el Defensor del Pueblo y la Autoridad de Protección de Datos de los Países Bajos han examinado activamente la toma de decisiones algorítmica y el impacto de la IA en los derechos de la ciudadanía en los Países Bajos85
Los parlamentos y sus comités de supervisión están adoptando un papel más activo en diferentes países, como Australia y el Reino Unido86, donde han realizado investigaciones sobre la IA y la transparencia algorítmica. Algunos órganos parlamentarios establecen comités ad hoc para investigar cuestiones específicas relacionadas con la IA, en particular cuando surgen riesgos o controversias emergentes.
Órganos consultivos
Los órganos consultivos también pueden ayudar a garantizar que los gobiernos estén utilizando la IA de forma confiable. Pueden ofrecer orientación, conocimientos y recomendaciones de expertos en respuesta a solicitudes específicas de gobiernos sobre cuestiones emergentes en materia de IA. Algunos pueden ser más prácticos, como el Consejo Asesor de IA de Irlanda, que, por ejemplo, desarrolla y ofrece su propio plan de trabajo de asesoría87. Otros ejemplos son:
El Grupo Consultivo sobre Ética de los Datos de Nueva Zelandia ofrece orientación no vinculante sobre el uso de sistemas algorítmicos por los organismos públicos. Sus recomendaciones abordan cuestiones como el cumplimiento de los derechos humanos, la validez científica, la privacidad y la ética (Ada Lovelace Institute, 2021[130]) 88.
Grecia creó en noviembre de 2023 un Comité Consultivo de Alto Nivel sobre IA, que desempeña un papel fundamental en la configuración de la política nacional en materia de IA. Se centra en promover el crecimiento económico y social y, al mismo tiempo, abordar los riesgos asociados al uso irrestricto de la IA. Ha desarrollado "Un Plan General para la Transformación de la IA en Grecia" (2024[47]). El país también ha creado un Comité Nacional de Tecnoética y Bioética para proporcionar conocimientos especializados independientes que proporcionen orientación estratégica y recomendaciones sobre las implicancias éticas de la IA, entre otras cosas 89.
España (2024[147]) ha creado el Consejo Consultivo de Inteligencia Artificial como organismo independiente formal para proporcionar al gobierno análisis, asesoría y apoyo sobre el tema de la IA. Celebró su primera reunión en junio de 2024.
En 2025, el gobierno de Australia Occidental creó una Junta Consultiva sobre IA para asesorar a los organismos gubernamentales de Australia Occidental en materia de mitigación de riesgos y para apoyar el uso seguro, responsable y ético de la IA en el sector público de Australia Occidental 90.
Institutos y unidades de seguridad y protección de IA
Los gobiernos de todo el mundo también se están centrando en este tema a través de esfuerzos que incluyen el establecimiento de institutos y unidades de seguridad y protección de la IA en varios países (OECD, 2024[139]). Por ejemplo, Canadá, la UE, Francia, Japón, Corea, Singapur, el Reino Unido y Estados Unidos han puesto en marcha cada uno de estos institutos o unidades91, y estos tres países adicionales han decidido formar una red internacional de institutos (UK DSIT, 2024[148]). El mandato de dichos institutos o unidades suele ser más amplio que el uso de la IA en el gobierno, pero algunos sí se centran en esto. Por ejemplo, el inminente Instituto de Seguridad de la IA de la India servirá como grupo de reflexión y acción para la innovación en gobernanza y ofrecerá orientación política, jurídica y técnica a las instituciones públicas que desplieguen la IA, entre otros objetivos92.
La participación para dar forma a una IA estratégica y responsable
Copiar enlace a La participación para dar forma a una IA estratégica y responsableLos sistemas de IA tienen el potencial de remodelar radicalmente la interacción entre la ciudadanía y sus gobiernos, y entre los propios ciudadanos. Las principales partes interesadas, incluidos la ciudadanía, deben poder opinar sobre la forma en que los gobiernos utilizan y gobiernan las tecnologías basadas en la IA. La participación de la ciudadanía y las partes interesadas puede generar una mayor confianza y legitimidad en los sistemas de IA utilizados por los gobiernos, así como en sistemas de IA que reflejen mejor las necesidades de todos (OECD, 2024[149]). Estos esfuerzos pueden ayudar a promover la transparencia, la rendición de cuentas y la equidad en los sistemas de IA, evitando sesgos y posibles daños.
La participación de la ciudadanía y las partes interesadas —como científicos e ingenieros, comunidades afectadas, inversores, empresas o instituciones— puede enriquecer la comprensión de las cuestiones relacionadas con la tecnología de IA, ayudar a los responsables de la formulación de políticas a anticipar problemas de aceptación pública y promover una buena comunicación (OECD, 2024[149]). Esta participación es crucial para alinear el uso y la gobernanza de la IA con los objetivos y las necesidades de la sociedad. Ayuda a las partes interesadas a comprender, cuestionar e influir en cómo se diseñan y funcionan los algoritmos y los mecanismos de gobernanza de la IA.
La participación temprana permite una evaluación exhaustiva de las posibles consecuencias y riesgos para diversos grupos, fomentando un desarrollo más inclusivo y ético de los sistemas de IA y la gobernanza. Este enfoque colaborativo ayuda a identificar y abordar preocupaciones desde diversas perspectivas, garantizando que los sistemas de IA se diseñen e implementen de forma responsable y beneficiosa para todas las partes interesadas (OECD, 2021[113]). Los ciudadanos y las partes interesadas pueden participar en diferentes momentos de la formulación de políticas públicas:
Establecimiento de la agenda. En el Reino Unido, el Centro de Ética de los Datos e Innovación ha estado involucrando a la ciudadanía a través de la encuesta Public Attitudes to Data and AI tracker (Postura Pública ante el Seguimiento de Datos e IA), que ahora se encuentra en su cuarta ola y que puede informar el enfoque del gobierno para el desarrollo de políticas futuras93.
Diseño de tecnología. En 2020, el Gobierno Francés puso en marcha PIAF, una iniciativa de colaboración con ciudadanos, académicos y la sociedad civil para crear bases de datos en francés con el fin de entrenar sistemas de IA94. La fábrica griega de IA Pharos se está configurando para ser un centro de colaboración, intercambio de conocimientos, puesta en común de recursos y desarrollo de proyectos conjuntos entre el sector público, las instituciones académicas y la industria privada.
Evaluación tecnológica. En los Estados Unidos, la Evaluación Participativa de Ciencia y Tecnología por parte de Expertos y Ciudadanos (ECAST, por su sigla en inglés) está aportando perspectivas públicas para influir en las decisiones críticas del gobierno en materia de ciencia y tecnología95.
Regulación. En 2024, la Unión Europea inició una consulta a múltiples partes interesadas sobre modelos de IA de uso general fiables en virtud de la Ley96 de IA, así como una convocatoria de manifestaciones de interés para participar en la elaboración del primer código de buenas prácticas de IA de uso general97.
Los gobiernos disponen de varias opciones para potenciar la participación pública a la hora de diseñar el desarrollo estratégico y operativo de la IA. Las secciones siguientes exploran procesos deliberativos, como asambleas ciudadanas, participación con los servidores públicos y participación de los usuarios en el desarrollo de IA. Además de la participación ciudadana en el uso y la gobernanza de la IA por parte del gobierno, los gobiernos también pueden utilizar la IA para fomentar la participación ciudadana, algo que se analiza en profundidad en el Capítulo 5 (sección sobre "La IA en la participación cívica y el gobierno abierto").
Asambleas ciudadanas
Las asambleas ciudadanas, también denominadas jurados o paneles de ciudadanos, generalmente se refieren a un grupo seleccionado al azar de personas que son ampliamente representativas de una comunidad que pasa mucho tiempo aprendiendo y colaborando a través de una deliberación facilitada para formar recomendaciones colectivas para los responsables de la formulación de políticas (OECD, 2020[150]).
Un proceso deliberativo representativo es el más adecuado para abordar cuestiones como los dilemas basados en valores; problemas complejos que requieren concesiones y afectan a una variedad de grupos de diferentes maneras; o cuestiones a largo plazo que van más allá de los ciclos electorales (OECD, 2022[151]). El desarrollo y la gobernanza de la IA son muy adecuados para este proceso. La IA implica debates éticos y sociales para decidir sobre sus usos en contextos específicos (por ejemplo, el reconocimiento facial) y puede considerarse una cuestión técnica con concesiones entre innovación y regulación. Lo que es más importante, la adopción de las tecnologías de IA sin duda dará forma a las interacciones sociales a largo plazo, con impactos que pueden extenderse a través de generaciones.
Como ejemplo de asamblea ciudadana sobre IA, en 2024, la Presidencia Belga del Consejo de la Unión Europea convocó a un grupo representativo de 60 belgas para recabar las opiniones de la ciudadanía sobre la IA con el bloque (BeEU, 2024[152]). En otro ejemplo, en Estados Unidos, en 2023, un profesor de la Universidad de Siracusa se asoció con el Centro para Nuevos Procesos Democráticos (CNDP, por su sigla en inglés) para llevar a cabo el primer evento deliberativo nacional sobre IA en Estados Unidos (Atwood and Bozentko, 2023[153]). También existen ejemplos internacionales y subnacionales de reuniones para dar forma a la gobernanza de la IA. En 2025 y 2026, la Coalición Global para la IA Inclusiva, una asociación entre el Laboratorio de Democracia Deliberativa de Stanford y la firma de consultoría en participación ciudadana Missions Publiques, llevará a cabo asambleas deliberativas que pretenden llegar a más de 10 000 ciudadanos en más de 100 países. Se han previsto actividades de seguimiento con los responsables de la toma de decisiones para garantizar el impacto de los procesos deliberativos (Vergne and Siu, 2025[154]). La participación ciudadana también es un componente importante de otra tendencia emergente en la gobernanza de la IA: el localismo de la IA, en el que las comunidades, incluidos los gobiernos locales, actúan para debatir y regular el uso de las tecnologías de IA en función de sus necesidades (Marcucci, Kalkar and Verhulst, 2022[155]). Por ejemplo, en 2018, el laboratorio de innovación del Distrito Federal, Laboratorio para la Ciudad de México (LabCDMX), llevó a cabo un ejercicio deliberativo para elaborar un Marco de Gobernanza Anticipatoria de la Ciudad de México sobre IA (Ramos, 2018[156]).
Participación de funcionarios públicos e interlocutores sociales
La participación de los servidores públicos, que están en la primera línea de la prestación de servicios públicos, es fundamental para el uso de la IA en el gobierno. Sus funciones y responsabilidades se ven directamente afectadas por la introducción de las tecnologías de IA, y sus puntos de vista y experiencias son invaluables para dar forma a un uso responsable y eficaz de la IA. Como se comenta en el Capítulo 1, la automatización, creación o transformación de tareas debido a la introducción de la IA puede generar oportunidades para mejorar la eficiencia y la efectividad. Pero esos cambios también pueden generar preocupación sobre la seguridad laboral, las condiciones de trabajo y los derechos de los trabajadores para estas personas.
El diseño y la implementación de iniciativas de IA deberían llevarse a cabo de una manera que respete los derechos laborales, promueva el bienestar y utilice los conocimientos de los funcionarios públicos (OECD, 2023[119]). Para lograrlo, es importante un diálogo transparente e inclusivo con los servidores públicos y los interlocutores sociales, como los sindicatos y las asociaciones de empleados. Se debe informar a los trabajadores sobre los objetivos de las iniciativas de IA, los posibles impactos en sus funciones y las medidas adoptadas para mitigar los impactos negativos. También deberían tener la oportunidad de expresar sus preocupaciones, ofrecer su opinión y contribuir con sus conocimientos a los enfoques de IA.
El diálogo social y la negociación colectiva son esenciales para que la adopción de la IA en el gobierno tenga éxito (OECD, 2023[119]). Son clave para generar confianza y colaboración efectiva entre los servidores públicos y para garantizar el acceso a la formación con el fin de desarrollar las habilidades y capacidades necesarias para trabajar con IA. Los interlocutores sociales también deberían participar, ya que desempeñan un papel fundamental en la negociación de las condiciones de trabajo.
Integración de usuarios en el desarrollo de la IA
Integrar a los usuarios finales en el desarrollo de la IA en el gobierno ayuda a garantizar que las soluciones de IA estén centradas en el usuario y aborden de manera efectiva los problemas del mundo real. El Gráfico 4.5 muestra los pasos clave para entender a los usuarios y sus necesidades. Los gobiernos pueden utilizar métodos de investigación —como la revisión de pruebas existentes, la realización de entrevistas y la observación de los usuarios— para desarrollar un conocimiento profundo de estos aspectos, mejorando así la relevancia y aceptación de las aplicaciones de la IA (OECD/UNESCO, 2024[29]). En consonancia con los Principios de Buenas Prácticas de la OCDE para el Diseño y la Prestación de Servicios en la Era Digital, los usuarios pueden ayudar a identificar información útil para iterar el diseño de servicios, simplificar los procedimientos subyacentes y aumentar el acceso de todos los grupos de usuarios (2022[157]). Por otra parte, convertir el diseño y la prestación de servicios basados en la IA en un proceso participativo e inclusivo empodera a los usuarios, dándoles un papel activo en la creación conjunta y el diseño conjunto de servicios públicos. Esto puede incluir la implementación de mecanismos para involucrar a los usuarios en las pruebas, la iteración y la mejora del servicio, así como la realización de experimentos rigurosos y diseñados éticamente con grupos de usuarios para ayudar a garantizar que el uso de la IA tenga los efectos deseados y que cualquier riesgo se identifique a pequeña escala antes de ampliarlo (véase más arriba el apartado "Creación de espacios para experimentar").
Gráfico 4.5. Pasos clave para entender a los usuarios y sus necesidades en los desarrollos de IA gubernamental
Copiar enlace a Gráfico 4.5. Pasos clave para entender a los usuarios y sus necesidades en los desarrollos de IA gubernamentalColaboración transfronteriza
Al igual que otras tecnologías digitales, la IA no conoce fronteras. Sus riesgos e impactos, así como sus posibles usos positivos, pueden ser transnacionales98. El participación y la colaboración transfronterizos pueden ser fundamentales para reducir las brechas de conocimiento y desarrollo entre países, abordar desafíos comunes y complejos, gestionar los riesgos y aplicar políticas y servicios innovadores. La cooperación internacional puede ayudar a crear capacidad gubernamental en materia de IA en todo el mundo y en regiones específicas, como se ha visto en ALC (OECD/CAF, 2022[30]). Esto puede incluir el intercambio de algoritmos abiertos, infraestructuras y conjuntos de datos intergubernamentales, así como la realización de esfuerzos conjuntos para el desarrollo responsable de tecnologías emergentes. Un informe de la OCDE (2021[158]) ha identificado tres mecanismos que los gobiernos están utilizando para conectarse y colaborar con el fin de abordar cuestiones que cruzan fronteras entre entidades administrativas o áreas, incluso en áreas relacionadas con la innovación digital y la IA en el gobierno.
Los organismos de gobernanza transfronteriza pueden abordar cuestiones complejas o que abarcan el ámbito de competencias de múltiples jurisdicciones, como la integración y armonización de los enfoques de IA y la interoperabilidad. Los organismos de gobernanza permiten a los gobiernos coordinar y aprovechar los esfuerzos colectivos de agentes divididos por fronteras. Así lo demuestra la creación por parte de la Unión Europea de la Oficina de IA encargada de aplicar, supervisar y hacer cumplir la Ley de IA. Fuera del ámbito de la UE, el Grupo de trabajo de altos funcionarios de gobierno digital de la OCDE (E-Leaders) y su grupo temático sobre IA han sido plataformas para que los países colaboren en el desarrollo de orientaciones y productos analíticos sobre la IA en el gobierno, con la posibilidad de proponer instrumentos jurídicos no vinculantes pertinentes de la OCDE. Además, los países han estado colaborando en la elaboración de normas internacionales aplicadas por organismos internacionales, como la ISO/IEC 42001 sobre sistemas de gestión de la IA, pertinentes para organismos del sector público y empresas u organizaciones sin fines de lucro. Sin embargo, en la actualidad no hay pruebas de que se hayan creado organismos de gobernanza transfronteriza formales para abordar de forma específica el desarrollo público y el uso de la IA.
En segundo lugar, los países también están utilizando redes innovadoras para abordar la colaboración transfronteriza. Las redes son estructuras horizontales, a menudo informales y de base que permiten la convergencia orgánica de ideas y conocimientos a través de las fronteras. Por ejemplo, la Red Europea de Administraciones Públicas (EUPAN, por su sigla en inglés) promueve el intercambio de conocimientos sobre IA99.
Y, en tercer lugar, algunos países están explorando dinámicas emergentes de sistemas de gobernanza, que son formas totalmente nuevas de trabajar juntos a través de las fronteras. Por ejemplo, los gobiernos han trabajado juntos para desarrollar infraestructuras digitales colectivas y enfoques de intercambio de datos con el fin de promover operaciones fluidas a nivel internacional. La Unión Europea es quizás la más avanzada en este ámbito, ya que su Ley Europea de Interoperabilidad, que entró en vigor en abril de 2024, establece un marco para mejorar la interoperabilidad dentro de las organizaciones del sector público, garantizando unos servicios transfronterizos sin fisuras. Los elementos clave incluyen la creación de una estructura de gobernanza de interoperabilidad, el fomento de la innovación y el intercambio de conocimientos, la implementación de entorno de prueba regulatorios para probar soluciones y la obligatoriedad de realizar evaluaciones de interoperabilidad para las administraciones públicas100.
Un marco de trabajo para una IA confiable en el sector público
Copiar enlace a Un marco de trabajo para una IA confiable en el sector públicoLa adopción conjunta de las medidas de política pública analizadas en este capítulo constituye un marco para una IA confiable en el sector público, que facilita a las administraciones públicas la alineación de sus acciones relacionadas con el desarrollo y la implementación de la IA conforme a los Principios de IA de la OCDE (2024[159]). El marco describe cómo los gobiernos pueden aprovechar la promesa de la IA en materia de productividad, capacidad de respuesta y rendición de cuentas mediante la combinación adecuada de habilitadores, salvaguardas y participación.
El Gráfico 4.6 presenta una representación visual del marco y la Tabla 4.1 detalla las preguntas y medidas de política en las que se basan sus elementos.
Gráfico 4.6. Marco de la OCDE para una inteligencia artificial confiable en el sector público
Copiar enlace a Gráfico 4.6. Marco de la OCDE para una inteligencia artificial confiable en el sector públicoTabla 4.1. Preguntas y medidas de política pública que sustentan el marco para una IA confiable en el sector público
Copiar enlace a Tabla 4.1. Preguntas y medidas de política pública que sustentan el marco para una IA confiable en el sector público|
Pregunta de Política Pública |
Medida de Política Pública |
Descripción |
|---|---|---|
|
¿Qué acciones y herramientas concretas pueden desarrollar los gobiernos para hacer frente a los desafíos existentes en aras de un uso confiable de la IA en la administración pública? |
Habilitadores |
Políticas e instrumentos que aborden las actuales limitaciones detectadas por los decisores políticos, para crear un entorno favorable y facilitar la adopción plena de la IA en el sector público. Entre ellos se incluyen la gobernanza, la infraestructura, los datos, las competencias y el talento, la gestión de las inversiones, la contratación pública y las alianzas. |
|
Salvaguardas |
Herramientas de política pública que las administraciones pueden considerar desarrollar para un uso de la IA responsable, confiable y centrado en las personas. Estos pueden incluir instrumentos no vinculantes, leyes y reglamentos, instrumentos de transparencia y gestión de riesgos, o la supervisión (más allá del poder ejecutivo) y el monitoreo (dentro de los órganos ejecutivos). |
|
|
¿A quién deberían involucrar los gobiernos a la hora de desarrollar e implementar los habilitadores y salvaguardas para el uso confiable de la IA en la administración pública? |
Participación |
Diferentes partes interesadas involucradas en la construcción de las bases para un uso responsable de la IA en el gobierno. Es necesario involucrar a diversos actores de todo el gobierno (por ejemplo, ministerios, servidores públicos o gobiernos subnacionales), del ecosistema en general y de fuera de las jurisdicciones nacionales, mediante acciones específicas para abordar de manera efectiva las oportunidades y los desafíos relacionados con el uso de la IA en el sector público. |
|
¿Qué impacto debería lograr el gobierno al utilizar una IA confiable? |
Impacto |
La IA en el sector público puede ayudar a aumentar la productividad, la capacidad de respuesta y la rendición de cuentas. |
Fuente: (OECD, 2024[3]).
Futuro trabajo de la OCDE sobre estas problemáticas
Copiar enlace a Futuro trabajo de la OCDE sobre estas problemáticasLos habilitadores, las salvaguardas y los procesos de interacción que componen el Marco de la OCDE para una IA confiable en el sector público sirven como base sólida sobre la que los gobiernos pueden adoptar un enfoque estratégico y responsable con respecto a la IA. Sin embargo, un informe no puede reflejar plenamente la complejidad de este amplio espectro de actividades necesarias para adoptar una tecnología de IA en rápida evolución y, al mismo tiempo, gestionar tanto los riesgos críticos como los importantes desafíos de implementación. El trabajo futuro de la OCDE abordará elementos del marco más en profundidad, con ideas viables sobre cómo los gobiernos pueden poner en marcha estas bases. Por ejemplo, un informe sobre la experimentación con IA en el gobierno ya está en marcha y se publicará en los próximos meses.
Es fundamental que los gobiernos puedan identificar dónde priorizar las inversiones y los recursos en IA en función de diversas concesiones a la hora de considerar los posibles beneficios y riesgos de determinadas aplicaciones de IA. La OCDE ha recomendado (2024[3]) y sigue alentando a los gobiernos a que den prioridad a las aplicaciones de IA de alto beneficio y bajo riesgo, especialmente cuando se está estableciendo un nivel inicial de madurez. Sin embargo, la mayoría no cuenta con procesos para la medición holística de los resultados potenciales o logrados —eficiencia del gasto, calidad de los servicios, daños potenciales— que les permitan hacer estas determinaciones. Esta debería ser una prioridad para los gobiernos como paso transversal que ayude a desbloquear el potencial de la IA, y será un tema central del trabajo futuro de la OCDE.
Bibliografía
[23] Ada Lovelace Institute (2025), Learn fast and build things: Lessons from six years of studying AI in the public sector, Ada Lovelace Institute, https://www.adalovelaceinstitute.org/policy-briefing/public-sector-ai/.
[130] Ada Lovelace Institute (2021), Algorithmic accountability for the public sector, Ada Lovelace Institute (Ada), AI Now Institute (AI Now), and Open Government Partnerships (OGP), https://www.adalovelaceinstitute.org/report/algorithmic-accountability-public-sector/.
[65] African Union (2024), Continental Artificial Intelligence Strategy, https://au.int/en/documents/20240809/continental-artificial-intelligence-strategy.
[46] Agency for Digital Government (2024), A Common Danish Language Resource, https://en.digst.dk/digital-governance/new-technologies/a-common-danish-language-resource/ (accessed on November 2024).
[53] AI Hub (2024), “AI Data Finder”, aihub.or.kr, https://www.aihub.or.kr/aihubdata/data/list.do?currMenu=115&topMenu=100 (accessed on November 2024).
[51] AI Sweden (2024), A shared digital assistant for the public sector, https://www.ai.se/en/project/shared-digital-assistant-public-sector (accessed on October 2024).
[153] Atwood, S. and K. Bozentko (2023), U.S. Public Assembly on High Risk Artificial Intelligence 2023 Event Report, https://www.cndp.us/wp-content/uploads/2023/12/2023-U.S.-PUBLIC-ASSEMBLY-ON-HIGH-RISK-AI-EVENT-REPORT-final.pdf.
[102] Australia DTA (2024), APS trials generative AI to explore safe and responsible use cases for government.
[36] Australian Government (2024), Evaluation of the whole-of-government trial of Microsoft 365 Copilot, https://www.digital.gov.au/initiatives/copilot-trial.
[152] BeEU (2024), A citizen’s view of artificial intelligence within the EU, https://belgian-presidency.consilium.europa.eu/media/lzxauu4i/rapport-ia-en-web-v2.pdf.
[4] Berryhill, J. et al. (2019), “Hello, World: Artificial intelligence and its use in the public sector”, OECD Working Papers on Public Governance, No. 36, OECD Publishing, Paris, https://doi.org/10.1787/726fd39d-en.
[134] Brauneis, R. and E. Goodman (2017), “Algorithmic Transparency for the Smart City”, SSRN Electronic Journal, https://doi.org/10.2139/ssrn.3012499.
[68] Brizuela, A. et al. (2025), Analysis of the generative AI landscape in the European public sector, European Commission, https://op.europa.eu/s/z4XY.
[127] Chilean Transparency Council (CPLT) (2024), CPLT lanza recomendaciones de transparencia algorítmica en servicios públicos, https://www.consejotransparencia.cl/cplt-lanza-recomendaciones-de-transparencia-algoritmica-en-servicios-publicos/.
[41] CNIL (2023), « Bac à sable » données personnelles : la CNIL lance un appel à projets sur l’intelligence artificielle dans les services publics, https://www.cnil.fr/fr/bac-sable-donnees-personnelles-la-cnil-lance-un-appel-projets-sur-lintelligence-artificielle-dans.
[42] CNIL (2023), « Bac à sable » intelligence artificielle et services publics : la CNIL accompagne 8 projets innovants, https://www.cnil.fr/fr/bac-sable-intelligence-artificielle-et-services-publics-la-cnil-accompagne-8-projets-innovants.
[31] CONPES (2025), CONPES 4144, Política Nacional de Inteligencia Artificial, https://colaboracion.dnp.gov.co/CDT/Conpes/Econ%C3%B3micos/4144.pdf.
[115] Corrêa, N. et al. (2023), “Worldwide AI ethics: A review of 200 guidelines and recommendations for AI governance”, Patterns, Vol. 4/10, p. 100857, https://doi.org/10.1016/j.patter.2023.100857.
[120] Council of Europe (2024), Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law, https://www.coe.int/en/web/artificial-intelligence/the-framework-convention-on-artificial-intelligence.
[98] Cover-Kus, H. (2024), UK Government doubles down efforts to deploy AI across the public sector, https://www.techuk.org/resource/uk-government-doubles-down-efforts-to-deploy-ai-across-the-public-sector.html.
[125] Deleware General Assembly (2024), House Bill 333: An Act to Amend Title 29 of the Deleware Code Relating to the Artificial Intelligence Commission, https://legis.delaware.gov/BillDetail/140866.
[60] Digdir (2024), The Norwegian Resource Centre for Sharing and Use of Data, https://www.digdir.no/datadeling/norwegian-resource-centre-sharing-and-use-data/2766 (accessed on November 2024).
[73] Dombo, F. (2023), Public Sector Considerations for Successful Cloud Adoption, https://news.sap.com/africa/2023/05/public-sector-considerations-for-successful-cloud-adoption/.
[88] EC (2025), A pioneering AI project awarded for opening Large Language Models to European languages, https://digital-strategy.ec.europa.eu/en/news/pioneering-ai-project-awarded-opening-large-language-models-european-languages (accessed on 10 March 2025).
[55] EC (2025), Common European Data Spaces, European Commission, https://digital-strategy.ec.europa.eu/en/policies/data-spaces.
[67] EC (2025), The AI Continent Action Plan, European Commission, https://digital-strategy.ec.europa.eu/en/library/ai-continent-action-plan.
[104] EC (2025), Updated EU AI model contractual clauses, European Commission, https://public-buyers-community.ec.europa.eu/communities/procurement-ai/resources/updated-eu-ai-model-contractual-clauses.
[97] EC (2024), Adopt AI study, European Commission, https://op.europa.eu/s/z2tg.
[111] EC (2024), GovTech: influencing factors, common requirements and recommendations, European Commission, https://interoperable-europe.ec.europa.eu/collection/public-sector-tech-watch/document/govtech-influencing-factors-common-requirements-and-recommendations.
[8] EC (2024), What factors influence perceived artificial intelligence adoption by public managers, European Commission Joint Research Centre, https://publications.jrc.ec.europa.eu/repository/bitstream/JRC138684/JRC138684_01.pdf.
[103] EC (2023), EU model contractual AI clauses to pilot in procurements of AI, https://public-buyers-community.ec.europa.eu/communities/procurement-ai/resources/eu-model-contractual-ai-clauses-pilot-procurements-ai.
[133] Fink, K. (2017), “Opening the government’s black boxes: freedom of information and algorithmic accountability”, Information, Communication & Society, Vol. 21/10, pp. 1453-1471, https://doi.org/10.1080/1369118x.2017.1330418.
[64] France Élysée (2025), Make France and AI Powerhouse, https://www.elysee.fr/admin/upload/default/0001/17/d9c1462e7337d353f918aac7d654b896b77c5349.pdf.
[70] Frazier, K. (2025), The Dangers of AI Sovereignty, https://www.lawfaremedia.org/article/the-dangers-of-ai-sovereignty.
[138] G7 (2023), Hiroshima Process International Code of Conduct for Advanced AI Systems, https://digital-strategy.ec.europa.eu/en/library/hiroshima-process-international-code-conduct-advanced-ai-systems.
[137] G7 (2023), Hiroshima Process International Guiding Principles for Advanced AI system, https://digital-strategy.ec.europa.eu/en/library/hiroshima-process-international-guiding-principles-advanced-ai-system.
[93] Gartner (2024), Compare AI Software Spending in the Government Industry, 2023-2027, https://www.gartner.com/en/documents/5318363.
[87] Gob.cl (2025), Latam GPT: Learn about the Latin American AI model developed in Chile, https://www.gob.cl/en/news/latam-gpt-learn-about-the-latin-american-ai-model-developed-in-chile/ (accessed on 10 March 2025).
[144] Goodman, E. and J. Trehu (2022), AI Audit-Washing and Accountability, https://www.gmfus.org/news/ai-audit-washing-and-accountability.
[13] Government of Canada (2025), AI Strategy for the Federal Public Service, https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/gc-ai-strategy-overview.html.
[83] Government of Greece (2025), The implementation of the new National Supercomputer “DAIDALOS” and the Data Center at the Lavrio TPP begins - The country acquires one of the most powerful computing systems in Europe, https://mindigital.gr/archives/7331.
[47] Government of Greece (2024), A Blueprint for Greece’s AI Transformation, https://foresight.gov.gr/wp-content/uploads/2024/11/Blueprint_GREECES_AI_TRANSFORMATION.pdf.
[19] Government of Ireland (2025), Guidelines for the Responsible Use of AI in the Public Service, https://www.gov.ie/en/department-of-public-expenditure-ndp-delivery-and-reform/publications/guidelines-for-the-responsible-use-of-ai-in-the-public-service.
[123] Government of Korea (2024), A New Chapter in the Age of AI: Basic Act on AI Passed at the National Assembly‘s Plenary Session, https://www.msit.go.kr/eng/bbs/view.do?bbsSeqNo=42&mId=4&mPid=2&nttSeqNo=1071.
[18] Government of New Zealand (2025), Public Service AI Framework, https://www.digital.govt.nz/standards-and-guidance/technology-and-architecture/artificial-intelligence/public-service-artificial-intelligence-framework.
[147] Government of Spain (2024), Spain sets up the International Artificial Intelligence Advisory Council, https://www.lamoncloa.gob.es/lang/en/gobierno/news/Paginas/2024/20240621-ai-advisory-council-meeting.aspx.
[110] Government of Spain (2024), The Government approves the Artificial Intelligence Strategy 2024, https://portal.mineco.gob.es/en-us/comunicacion/Pages/20240514-Gobierno-aprueba-Estrategia-IA-2024.aspx.
[14] Government of Switzerland (2025), Strategy Use of AI systems in the Federal Administration, https://www.bk.admin.ch/bk/en/home/digitale-transformation-ikt-lenkung/ikt-vorgaben/strategien-teilstrategien/sb021-strategie-einsatz-von-ki-systemen-in-der-bundesverwaltung.html.
[12] Government of the Dominican Republic (2024), Estrategie Nacional de Inteligencia Artificial, https://innovacionrd.gob.do/enia/.
[15] Government of Uruguay (2021), AI Strategy for the Digital Government, https://www.gub.uy/agencia-gobierno-electronico-sociedad-informacion-conocimiento/comunicacion/publicaciones/ia-strategy-english-version/ia-strategy-english-version/ai-strategy-for.
[126] GPAI (2024), Algorithmic Transparency in the Public Sector: A state-of-the-art report of algorithmic transparency instruments, Global Partnership on Artificial Intelligence, https://gpai.ai/projects/responsible-ai/algorithmic-transparency-in-the-public-sector/algorithmic-transparency-in-the-public-sector.pdf.
[141] Gupta, A. et al. (2021), The State of AI Ethics Report (Volume 5), https://arxiv.org/abs/2108.03929.
[79] Hassani, A. et al. (2022), Escaping the Big Data Paradigm with Compact Transformers, https://arxiv.org/abs/2104.05704.
[77] IEA (2025), Energy and AI, https://iea.blob.core.windows.net/assets/34eac603-ecf1-464f-b813-2ecceb8f81c2/EnergyandAI.pdf.
[76] IEA (2023), Data Centres and Data Transmission Networks, https://www.iea.org/energy-system/buildings/data-centres-and-data-transmission-networks.
[80] Jones, N. (2025), Where AI Is Now: Smaller, Better, Cheaper Models, https://www.scientificamerican.com/article/ai-report-highlights-smaller-better-cheaper-models.
[69] Komaitis, K., E. Ponce de León and K. Thibaut (2024), The sovereignty trap, https://www.atlanticcouncil.org/blogs/geotech-cues/the-sovereignty-trap.
[143] Lam, M. et al. (2023), “Sociotechnical Audits: Broadening the Algorithm Auditing Lens to Investigate Targeted Advertising”, Proceedings of the ACM on Human-Computer Interaction, Vol. 7/CSCW2, pp. 1-37, https://doi.org/10.1145/3610209.
[117] Leslie, D. (2019), Understanding artificial intelligence ethics and safety, The Alan Turing Institute, https://doi.org/10.5281/zenodo.3240529.
[63] Letzing, J. (2024), What is ‘sovereign AI’ and why is the concept so appealing (and fraught)?, https://www.weforum.org/stories/2024/11/what-is-sovereign-ai-and-why-is-the-concept-so-appealing-and-fraught/.
[91] Long, D. and B. Magerko (2020), “What is AI Literacy? Competencies and Design Considerations”, Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, pp. 1-16, https://doi.org/10.1145/3313831.3376727.
[48] M Saiful Bari, Y. (2024), “ALLaM: Large Language Models for Arabic and English”.
[155] Marcucci, S., U. Kalkar and S. Verhulst (2022), AI Localism in Practice: Examining How Cities Govern AI, https://files.thegovlab.org/ailocalism-in-practice.pdf.
[75] McKinsey (2024), AI power: Expanding data center capacity to meet growing demand, https://www.mckinsey.com/industries/technology-media-and-telecommunications/our-insights/ai-power-expanding-data-center-capacity-to-meet-growing-demand.
[142] Mehta, S., A. Rogers and T. Gilbert (2023), Dynamic Documentation for AI Systems, https://arxiv.org/abs/2303.10854.
[145] METR (2023), Responsible Scaling Policies (RSPs), https://metr.org/blog/2023-09-26-rsp/.
[78] Metz, C. et al. (2025), How A.I. is Changing the Way the World Builds Computers, https://www.nytimes.com/interactive/2025/03/16/technology/ai-data-centers.html.
[101] Monteiro, B., A. Hlacs and P. Boéchat (2024), “Public procurement for public sector innovation: Facilitating innovators’ access to innovation procurement”, OECD Working Papers on Public Governance, No. 80, OECD Publishing, Paris, https://doi.org/10.1787/9aad76b7-en.
[85] Montgomery, C., F. Rossi and J. New (2023), A Policymaker’s Guide to Foundation Models, https://newsroom.ibm.com/Whitepaper-A-Policymakers-Guide-to-Foundation-Models.
[26] Mulgan, G. (2019), Intelligence as an outcome not an input, http://www.nesta.org.uk/blog/intelligence-outcome-not-input.
[128] Netherlands Court of Audit (2024), Focus on AI in central government, https://english.rekenkamer.nl/publications/reports/2024/10/16/focus-on-ai-in-central-government.
[136] NIST (2023), AI Risk Management Framework, https://www.nist.gov/itl/ai-risk-management-framework.
[89] Noor, E. and B. Kanitroj (2025), Speaking in Code: Contextualizing Large Language Models in Southeast Asia, https://carnegieendowment.org/research/2025/01/speaking-in-code-contextualizing-large-language-models-in-southeast-asia.
[81] OECD (2025), Digital Government Review of Korea: Harnessing Digital and Data to Transform Government, OECD Digital Government Studies, OECD Publishing, Paris, https://doi.org/10.1787/9defc197-en.
[94] OECD (2025), “Effectively Managing Investments in Digital Government: An OECD Policy Framework”, OECD Public Governance Policy Papers, No. 76, OECD Publishing, Paris, https://doi.org/10.1787/5c324e91-en.
[50] OECD (2025), Enhancing Access to and Sharing of Data in the Age of Artificial Intelligence, OECD Publishing Paris, https://www.oecd.org/en/publications/enhancing-access-to-and-sharing-of-data-in-the-age-of-artificial-intelligence_23a70dca-en.html.
[38] OECD (2025), “Mapping relevant data collection mechanisms for AI training”, OECD Artificial Intelligence Papers, No. 48, OECD Publishing, Paris, https://doi.org/10.1787/3264cd4c-en.
[121] OECD (2025), OECD Regulatory Policy Outlook 2025, OECD Publishing, Paris, https://doi.org/10.1787/56b60e39-en.
[74] OECD (2024), “2023 OECD Digital Government Index: Results and key findings”, OECD Public Governance Policy Papers, No. 44, OECD Publishing, Paris, https://doi.org/10.1787/1a89ed5e-en.
[40] OECD (2024), “AI, data governance and privacy: Synergies and areas of international co-operation”, OECD Artificial Intelligence Papers, No. 22, OECD Publishing, Paris, https://doi.org/10.1787/2476b1a4-en.
[139] OECD (2024), “Assessing potential future artificial intelligence risks, benefits and policy imperatives”, OECD Artificial Intelligence Papers, No. 27, OECD Publishing, Paris, https://doi.org/10.1787/3f4e3dfb-en.
[62] OECD (2024), “Digital public infrastructure for digital governments”, OECD Public Governance Policy Papers, No. 68, OECD Publishing, Paris, https://doi.org/10.1787/ff525dc8-en.
[109] OECD (2024), Enabling Digital Innovation in Government: The OECD GovTech Policy Framework, OECD Digital Government Studies, OECD Publishing, Paris, https://doi.org/10.1787/a51eb9b2-en.
[2] OECD (2024), “Fixing frictions: ‘sludge audits’ around the world: How governments are using behavioural science to reduce psychological burdens in public services”, OECD Public Governance Policy Papers, No. 48, OECD Publishing, Paris, https://doi.org/10.1787/5e9bb35c-en.
[149] OECD (2024), Framework for Anticipatory Governance of Emerging Technologies, OECD Publishing, https://doi.org/10.1787/0248ead5-en.
[54] OECD (2024), G20 Compendium on Data Access and Sharing Across the Public Sector and with the Private Sector for Public Interest, OECD Publishing, Paris, https://www.oecd.org/en/publications/g20-compendium-on-data-access-and-sharing-across-the-public-sector-and-with-the-private-sector-for-public-interest_df1031a4-en.html.
[3] OECD (2024), “Governing with Artificial Intelligence: Are governments ready?”, OECD Artificial Intelligence Papers, No. 20, OECD Publishing, Paris, https://doi.org/10.1787/26324bc2-en.
[95] OECD (2024), OECD Artificial Intelligence Review of Germany, OECD Publishing, Paris, https://doi.org/10.1787/609808d6-en.
[84] OECD (2024), OECD Digital Economy Outlook 2024 (Volume 1): Embracing the Technology Frontier, OECD Publishing, Paris, https://doi.org/10.1787/a1689dc5-en.
[107] OECD (2024), Public procurement, https://www.oecd.org/en/topics/public-procurement.html.
[159] OECD (2024), Recommendation of the Council on Artificial Intelligence, OECD Publishing, https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449.
[100] OECD (2024), The Digital Transformation of Norway’s Public Sector, OECD Digital Government Studies, OECD Publishing, Paris, https://doi.org/10.1787/1620e542-en.
[52] OECD (2023), “2023 OECD Open, Useful and Re-usable data (OURdata) Index: Results and key findings”, OECD Public Governance Policy Papers, No. 43, OECD Publishing, Paris, https://doi.org/10.1787/a37f51c3-en.
[135] OECD (2023), “Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI”, OECD Digital Economy Papers, No. 349, OECD Publishing, Paris, https://doi.org/10.1787/2448f04b-en.
[44] OECD (2023), “AI language models: Technological, socio-economic and policy considerations”, OECD Digital Economy Papers, No. 352, OECD Publishing, Paris, https://doi.org/10.1787/13d38f92-en.
[140] OECD (2023), “Common guideposts to promote interoperability in AI risk management”, OECD Artificial Intelligence Papers, No. 5, OECD Publishing, Paris, https://doi.org/10.1787/ba602d18-en.
[131] OECD (2023), Global Trends in Government Innovation 2023, OECD Public Governance Reviews, OECD Publishing, Paris, https://doi.org/10.1787/0655b570-en.
[119] OECD (2023), OECD Employment Outlook 2023: Artificial Intelligence and the Labour Market, OECD Publishing, Paris, https://doi.org/10.1787/08785bba-en.
[35] OECD (2023), “Regulatory sandboxes in artificial intelligence”, OECD Digital Economy Papers, No. 356, OECD Publishing, Paris, https://doi.org/10.1787/8f80a0e6-en.
[56] OECD (2022), Going Digital to Advance Data Governance for Growth and Well-being, OECD Publishing, Paris, https://doi.org/10.1787/e3d783b0-en.
[71] OECD (2022), “Measuring the environmental impacts of artificial intelligence compute and applications: The AI footprint”, OECD Digital Economy Papers, No. 341, OECD Publishing, Paris, https://doi.org/10.1787/7babf571-en.
[58] OECD (2022), “OECD Framework for the Classification of AI systems”, OECD Digital Economy Papers, No. 323, OECD Publishing, Paris, https://doi.org/10.1787/cb6d9eca-en.
[157] OECD (2022), “OECD Good Practice Principles for Public Service Design and Delivery in the Digital Age”, OECD Public Governance Policy Papers, No. 23, OECD Publishing, Paris, https://doi.org/10.1787/2ade500b-en.
[151] OECD (2022), OECD Guidelines for Citizen Participation Processes, OECD Publishing, https://doi.org/10.1787/f765caf6-en.
[158] OECD (2021), “Achieving cross-border government innovation: Governing cross-border challenges”, OECD Public Governance Policy Papers, No. 10, OECD Publishing, Paris, https://doi.org/10.1787/ddd07e3b-en.
[113] OECD (2021), G20 survey on Agile approaches to the regulatory governance of innovation: Report for the G20 Digital Economy Task Force, Trieste, Italy, August 2021, OECD Publishing, Paris, https://doi.org/10.1787/f161916d-en.
[43] OECD (2021), Good Practice Principles for Data Ethics in the Public Sector - OECD, OECD Publishing, Paris, https://www.oecd.org/gov/digital-government/good-practice-principles-for-data-ethics-in-the-public-sector.htm (accessed on 14 April 2025).
[21] OECD (2021), OECD Report on Public Communication: The Global Context and the Way Forward, OECD Publishing, https://doi.org/10.1787/22f8031c-en.
[9] OECD (2021), Public Sector Innovation Facets: Mission-oriented innovation, OECD Publishing, https://oecd-opsi.org/publications/facets-mission/.
[122] OECD (2021), Recommendation of the Council for Agile Regulatory Governance to Harness Innovation, https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0464.
[7] OECD (2021), “The OECD Framework for digital talent and skills in the public sector”, OECD Working Papers on Public Governance, No. 45, OECD Publishing, Paris, https://doi.org/10.1787/4e7c3f58-en.
[150] OECD (2020), Innovative Citizen Participation and New Democratic Institutions: Catching the Deliberative Wave, OECD Publishing, Paris, https://doi.org/10.1787/339306da-en.
[34] OECD (2019), Artificial Intelligence in Society, OECD Publishing, Paris, https://doi.org/10.1787/eedfee77-en.
[59] OECD (2019), “Data governance in the public sector”, in The Path to Becoming a Data-Driven Public Sector, OECD Publishing, Paris, https://doi.org/10.1787/9cada708-en.
[161] OECD (2019), Recommendation of the Council on Public Service Leadership and Capability, OECD Publishing, https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0445.
[57] OECD (2019), The Path to Becoming a Data-Driven Public Sector, OECD Digital Government Studies, OECD Publishing, Paris, https://doi.org/10.1787/059814a7-en.
[1] OECD (2017), Systems Approaches to Public Sector Challenges: Working with Change, OECD Publishing, Paris, https://doi.org/10.1787/9789264279865-en.
[37] OECD (forthcoming), Generative AI Experimentation in Government: A review of current practices, OECD Publishing.
[116] OECD.AI (2025), The OECD-African Union AI Dialogue 2.0: From strategy to implementation, https://oecd.ai/en/wonk/the-oecd-african-union-ai-dialogue-2-0-from-strategy-to-implementation.
[30] OECD/CAF (2022), The Strategic and Responsible Use of Artificial Intelligence in the Public Sector of Latin America and the Caribbean, OECD Public Governance Reviews, OECD Publishing, Paris, https://doi.org/10.1787/1f334543-en.
[29] OECD/UNESCO (2024), G7 Toolkit for Artificial Intelligence in the Public Sector, OECD Publishing, Paris, https://doi.org/10.1787/421c1244-en.
[20] Pahlka, J. (2024), AI meets the cascade of rigidity, https://www.niskanencenter.org/ai-meets-the-cascade-of-rigidity/.
[49] Parankusham, K., R. Rizk and K. Santosh (2025), LakotaBERT: A Transformer-based Model for Low Resource Lakota Language, https://arxiv.org/abs/2503.18212.
[146] Pehlivan, C. and E. Valín (2023), Spain establishes the EU’s first AI supervisory agency, https://techinsights.linklaters.com/post/102intj/spain-establishes-the-eus-first-ai-supervisory-agency.
[45] Peixoto, T., O. Canuto and L. Jordan (2024), AI and the Future of Government: Unexpected Effects and Critical Challenges, https://www.policycenter.ma/publications/ai-and-future-government-unexpected-effects-and-critical-challenges.
[39] Personal Information Protection Commission of Korea (2023), Policy direction for safe use of personal information in the era of artificial intelligence [translated], https://www.pipc.go.kr/np/cop/bbs/selectBoardArticle.do?bbsId=BS074&mCode=C020010000&nttId=9083.
[118] Policy Lab Digital, Work & Society within the German Federal Ministry of Labour and Social Affairs (2024), Guidelines for the Use of AI in the Administrative Work of Employment and Social Protection Services, https://www.denkfabrik-bmas.de/fileadmin/Downloads/Publikationen/Guidelines_for_the_use_of_ai_in_the_administrative_work_of_employment_and_social_protection_services.pdf.
[156] Ramos, J. (2018), Laboratorio Para La Ciudad (CDMX), https://actionforesight.net/laboratorio-para-la-ciudad-cdmx/.
[66] Ray, T. (2025), Sovereign remedies: Between AI autonomy and control, https://www.atlanticcouncil.org/in-depth-research-reports/issue-brief/sovereign-remedies-between-ai-autonomy-and-control/.
[72] Redapt (2023), On-Premises vs. Cloud for AI Workloads, https://www.redapt.com/blog/on-premises-vs-cloud-for-ai-workloads.
[160] Rudra, S. (2024), OSI Calls Out Meta for its Misleading ’Open Source’ AI Models, https://news.itsfoss.com/osi-meta-ai/.
[24] Ryseff, J., B. De Bruhl and S. Newberry (2024), The Root Causes of Failure for Artificial Intelligence Projects and How They Can Succeed, RAND, https://www.rand.org/pubs/research_reports/RRA2680-1.html.
[25] Ryseff, J. and A. Narayanan (2025), Why AI Projects Fail, https://www.rand.org/pubs/presentations/PTA2680-1.html.
[82] SDAIA (2025), Government Cloud (Deem), https://sdaia.gov.sa/en/Services/Pages/Deem.aspx.
[86] Seger, E. et al. (2024), Open-Sourcing Highly Capable Foundation Models: An Evaluation of Risks, Benefits, and Alternative Methods for Pursuing Open-Source Objectives, https://www.governance.ai/research-paper/open-sourcing-highly-capable-foundation-models.
[92] The Alan Turing Institute (2023), AI Skills for Business Competency Framework, https://www.turing.ac.uk/skills/collaborate/ai-skills-business-framework.
[61] U.S. General Services Administration (2024), AI Capability Maturity - Operational maturity areas, https://coe.gsa.gov/coe/ai-guide-for-government/operational-maturity-areas/index.html#dataops.
[10] UCL IIPP (2019), A Mission-Oriented UK Industrial Strategy, https://www.ucl.ac.uk/bartlett/public-purpose/sites/public-purpose/files/190515_iipp_report_moiis_final_artwork_digital_export.pdf.
[129] UK Committee of Public Accounts (2025), Use of AI in Government, https://committees.parliament.uk/publications/47199/documents/244683/default/.
[148] UK DSIT (2024), Global leaders agree to launch first international network of AI Safety Institutes to boost cooperation of AI, https://www.gov.uk/government/news/global-leaders-agree-to-launch-first-international-network-of-ai-safety-institutes-to-boost-understanding-of-ai.
[27] UK DSIT (2020), Guidelines for AI procurement, https://www.gov.uk/government/publications/guidelines-for-ai-procurement/guidelines-for-ai-procurement.
[6] UK Government (2025), A blueprint for modern digital government, https://www.gov.uk/government/publications/a-blueprint-for-modern-digital-government/a-blueprint-for-modern-digital-government-html.
[5] UK Government (2025), Prime Minister: I will reshape the state to deliver security for working people, https://www.gov.uk/government/news/prime-minister-i-will-reshape-the-state-to-deliver-security-for-working-people.
[22] UK Government Digital Service (2025), Artificial Intelligence Playbook for the UK Government, https://www.gov.uk/government/publications/ai-playbook-for-the-uk-government/artificial-intelligence-playbook-for-the-uk-government-html.
[99] UK House of Commons (2024), Governance of Artificial Intelligence (AI): Government Response, https://committees.parliament.uk/publications/46145/documents/230927/default/.
[16] UK NAO (2024), Use of articial intelligence in government, https://www.nao.org.uk/wp-content/uploads/2024/03/use-of-artificial-intelligence-in-government.pdf.
[112] UNESCO (2024), Consultation paper on AI regulation: emerging approaches across the world, https://unesdoc.unesco.org/ark:/48223/pf0000390979.
[114] UNESCO (2023), Ethical impact assessment. A tool of the Recommendation on the Ethics of Artificial Intelligence, UNESCO, https://doi.org/10.54678/ytsa7796.
[90] University of Rome Sapienza (2024), AI made in Italy: here is Minerva, the first family of large language models trained “from scratch” for Italian, https://www.uniroma1.it/en/notizia/ai-made-italy-here-minerva-first-family-large-language-models-trained-scratch-italian (accessed on 10 March 2025).
[28] US IT Modernization Centers of Excellence (n.d.), AI Guide for Government, https://coe.gsa.gov/ai-guide-for-government.
[17] US OMB (2025), Accelerating Federal Use of AI through Innovation, Governance, and Public Trust, https://www.whitehouse.gov/wp-content/uploads/2025/02/M-25-21-Accelerating-Federal-Use-of-AI-through-Innovation-Governance-and-Public-Trust.pdf.
[106] US OMB (2025), M-25-22 Driving Efficient Acquisition of Artificial Intelligence in Government, White House Office of Management and Budget, https://www.whitehouse.gov/wp-content/uploads/2025/02/M-25-22-Driving-Efficient-Acquisition-of-Artificial-Intelligence-in-Government.pdf.
[132] Valderrama, M., M. Hermosilla and R. Garrido (2023), State of the Evidence: Algorithmic Transparency, https://www.opengovpartnership.org/wp-content/uploads/2023/05/State-of-the-Evidence-Algorithmic-Transparency.pdf (accessed on August 2024).
[96] van Noordt, C., R. Medaglia and L. Tangi (2023), “Policy initiatives for Artificial Intelligence-enabled government: An analysis of national strategies in Europe”, Public Policy and Administration, https://doi.org/10.1177/09520767231198411.
[154] Vergne, A. and A. Siu (2025), Global Coalition for an Inclusive AI, https://global-ai-dialogue.org/.
[33] Verhulst, S. and M. Sloane (2020), Realizing the Potential of AI Localism, https://www.project-syndicate.org/commentary/local-regulation-of-artificial-intelligence-uses-by-stefaan-g-verhulst-1-and-mona-sloane-2020-02?barrier=accesspaylog.
[11] Vinnova (2022), Designing missions, https://www.vinnova.se/contentassets/1c94a5c2f72c41cb9e651827f29edc14/designing-missions.pdf?cb=20220311094952.
[32] WAM (2024), Hamdan bin Mohammed appoints 22 Chief AI Officers across government entities in Dubai, https://www.wam.ae/en/article/b3kujwp-hamdan-bin-mohammed-appoints-chief-officers-across.
[124] Werner, J. (2024), New York Governor Signs AI Oversight Bill, https://babl.ai/new-york-governor-signs-ai-oversight-bill.
[108] World Bank (2025), Global Trends in AI Governance: Evolving Country Approaches, https://openknowledge.worldbank.org/entities/publication/a570d81a-0b48-4cac-a3d9-73dff48a8f1a.
[105] World Economic Forum (2025), AI Procurement Guideline, https://www.weforum.org/publications/ai-procurement-in-a-box/ai-government-procurement-guidelines/ (accessed on 10 March 2025).
Notas
Copiar enlace a Notas← 2. Véase https://oecd-opsi.org/work-areas/anticipatory-innovation y https://www.oecd.org/en/about/programmes/strategic-foresight.
← 3. El contexto y el uso de los "habilitadores" en este informe no son los mismos que los "habilitadores de IA" para sistemas de IA generalmente discutidos por las políticas de IA y las comunidades técnicas, que consisten en datos, algoritmos y poder computacional ("compute").
← 4. Véase https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023, https://www.gov.uk/government/publications/seoul-declaration-for-safe-innovative-and-inclusive-ai-ai-seoul-summit-2024, y https://www.elysee.fr/en/emmanuel-macron/2025/02/11/statement-on-inclusive-and-sustainable-artificial-intelligence-for-people-and-the-planet, respectivamente.
← 5. Véase (OECD, 2021[7]) para obtener material adicional relevante, incluidas habilidades y competencias para el liderazgo del gobierno digital. Véase también OCDE (2019[161]) Recomendación sobre el liderazgo y la capacidad de la función pública para obtener información sobre cómo los países pueden inculcar una cultura y un liderazgo basados en valores y garantizar servidores públicos cualificados y eficaces, así como sistemas de empleo público receptivos y adaptables.
← 6. La OCDE apoya las innovaciones orientadas a misiones a través de su Laboratorio de Acción Misional, una iniciativa conjunta de la Dirección de Ciencia, Tecnología e Innovación (STI) de la OCDE, el Observatorio de Innovación del Sector Público (OPSI) de la Dirección de Gobernanza Pública (GOV) y la Dirección de Cooperación para el Desarrollo (DCD). Véase https://oecd-missions.org.
← 7. La ciencia del comportamiento es un enfoque interdisciplinario que abarca el estudio del comportamiento humano y el diseño de estrategias para cambiarlo. Véase https://www.oecd.org/en/topics/behavioural-science.
← 8. Véase https://www.apsc.gov.au/initiatives-and-programs/workforce-information/research-analysis-and-publications/state-service/state-service-report-2023-24/fit-future/supporting-safe-and-responsible-use-artificial-intelligence.
← 9. Véase https://www.digmin.dk/digitalisering/mere-om-digitalisering/digital-taskforce-for-kunstig-intelligens-.
← 10. Véase https://www.mitre.org/news-insights/fact-sheet/federal-ai-sandbox y https://www.mitre.org/news-insights/news-release/mitre-establish-new-ai-experimentation-and-prototyping-capability-us.
← 13. Véase https://govtech.justica.gov.pt/en/govtech-justica-english y https://www.ceei.es/legal&justiciatechlab/?r=vxpx6w6j70qr1jstvc6, respectivamente.
← 14. https://www.gov.uk/government/publications/the-magenta-book/guidance-on-the-impact-evaluation-of-ai-interventions-html.
← 15. https://www.gov.uk/government/publications/the-magenta-book/guidance-on-the-impact-evaluation-of-ai-interventions-html.
← 16. Véase https://www.gov.uk/guidance/repository-of-privacy-enhancing-technologies-pets-use-cases para consultar un repositorio de casos de uso de diferentes países recopilados por el Reino Unido.
← 17. Otros países incluyen Brasil, Canadá, China, Egipto, Estonia, Finlandia, Alemania, Francia, Hungría, Islandia, India, Israel, Japón, Corea, Letonia, Noruega, Qatar, Singapur, Eslovenia, España, Sudáfrica, Tailandia, Turquía, el Reino Unido y Vietnam.
← 18. Véase también https://www.ekt.gr/en/news/30774.
← 19. Véase https://www.athenarc.gr/el/news/meltemi-proto-anoihto-megalo-glossiko-montelo-gia-ta-ellinika y https://www.athenarc.gr/en/news/llama-krikri-new-greek-ai-language-model-featured-kathimerini, respectivamente.
← 20. Véase https://static.pib.gov.in/WriteReadData/specificdocs/documents/2022/aug/doc202282696201.pdf y https://www.indiatoday.in/technology/news/story/bhashini-ceo-amitabh-nag-talks-about-how-their-ai-tool-is-bridging-indias-language-divide-2646101-2024-12-06; información complementada por funcionarios del Gobierno de la India.
← 21. Véase https://interoperable-europe.ec.europa.eu/collection/open-source-observatory-osor/news/spanish-authorities-release-alia-ai-models.
← 22. Véase https://www.gov.uk/guidance/national-data-strategy y https://www.dta.gov.au/digital-government-strategy, respectivamente.
← 23. Véase https://www.gov.uk/guidance/national-data-strategy y https://www.dta.gov.au/digital-
government-strategy, respectivamente.
← 25. Véanse https://sbci.gov.ie/information-access/data-sharing-and-governance-act, https://eur-lex.europa.eu/eli/reg/2016/679/oj, https://eur-lex.europa.eu/eli/reg/2023/2854, https://eur-lex.europa.eu/eli/reg/2022/868/oj, https://eur-lex.europa.eu/eli/dir/2019/1024/oj, y https://ec.europa.eu/isa2/eif_en, respectivamente.
← 26. Las infraestructuras públicas digitales (IPD) se definen como sistemas digitales compartidos que son seguros e interoperables y que pueden apoyar la prestación y el acceso inclusivos a los servicios públicos y privados en toda la sociedad. Estos sistemas actúan como elementos básicos digitales comunes que sustentan los procesos y servicios públicos y permiten la transformación del gobierno digital a escala social (OECD, 2024[62]).
← 28. Las ponderaciones del modelo son "las variables o valores numéricos utilizados para especificar cómo se transforma la entrada (por ejemplo, el texto que describe una imagen) en la salida (por ejemplo, la imagen misma). Estos se actualizan de forma iterativa durante la formación del modelo para mejorar su rendimiento en las tareas para las que ha sido formado" (Seger et al., 2024[86]). El uso de modelos de "código abierto" para este informe no implica que dichos modelos se lancen bajo una licencia de código abierto aprobada por la Open Source Initiative (OSI), una organización sin fines de lucro administradora de la definición de código abierto (https://opensource.org/osd). OSI ha criticado a algunas compañías que llaman a sus modelos código abierto porque solo proporcionan los ponderadores para el modelo, y no otros elementos, como los datos de entrenamiento, código y prácticas de entrenamiento (Rudra, 2024[160]). Algunos argumentan que estos modelos deberían llamarse "peso abierto" en lugar de "código abierto".
← 30. https://www.tech.gov.sg/products-and-services/for-government-agencies/productivity-and-marketing/vica.
← 31. Véase https://oecd.ai/catalogue.
← 32. https://indiaai.s3.ap-south-1.amazonaws.com/docs/empowering-public-sector-leadership.pdf. Información complementada por funcionarios del Gobierno de la India.
← 33. Véase https://www.ipa.ie/ipa-overview/onelearning.2548.html y https://www.ypes.gr/ypourgeio-esoterikon-google-enarxi-epimorfotikis-drasis-gia-dimosious-ypallilous-me-thema-tin-techniti-noimosyni, respectivamente.
← 35. Véase https://www.canada.ca/en/government/system/digital-government/digital-talent-strategy.html.
← 36. Véase https://chcoc.gov/content/skills-based-hiring-guidance-and-competency-model-artificial-intelligence-work.
← 42. Véase https://www.cio.bund.de/Webs/CIO/DE/digitale-loesungen/datenpolitik/daten-und-ki/daten-und-ki-node.html. y https://www.digitale-verwaltung.de/SharedDocs/downloads/Webs/DV/DE/Transformation/akteurssteckbrief-beki.pdf.
← 43. Véase https://www.digital.gov.au/policy/ai/pilot-ai-assurance-framework, https://www.industry.gov.au/publications/australias-artificial-intelligence-ethics-principles/australias-ai-ethics-principles y https://www.digital.gov.au/policy/ai, respectivamente.
← 44. Véase https://www.dta.gov.au/advice/digital-and-ict-investments/digital-and-ict-investment-oversight-framework-iof.
← 45. Véase https://www.gsa.gov/about-us/newsroom/news-releases/technology-modernization-fund-seeking-proposals-fo-02082024.
← 46. https://www.numerique.gouv.fr/services/guichet-financement-exploitation-valorisation-des-donnees/
← 48. https://public-buyers-community.ec.europa.eu/communities/procurement-ai/resources/eu-model-contractual-ai-clauses-pilot-procurements-ai
← 50. Véase también https://www.chilecompra.cl/2024/11/goblab-uai-presento-nueva-herramienta-para-una-ia-responsable-y-etica.
← 52. Véase https://www.elysee.fr/en/emmanuel-macron/2025/02/11/statement-on-inclusive-and-sustainable-artificial-intelligence-for-people-and-the-planet y https://www.elysee.fr/en/sommet-pour-l-action-sur-l-ia/public-interest-ai.
← 54. Véase https://www.rtu.lv/en/university/for-mass-media/news/open/latvia-establishes-artificial-intelligence-centre y https://digital-skills-jobs.europa.eu/en/latest/news/latvia-establishes-artificial-intelligence-centre.
← 55. Véanse https://oecd.ai/ai-principles, https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence, https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai, y https://digital-strategy.ec.europa.eu/en/library/hiroshima-process-international-guiding-principles-advanced-ai-system, respectivamente.
← 57. Véase https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023, https://www.gov.uk/government/publications/seoul-declaration-for-safe-innovative-and-inclusive-ai-ai-seoul-summit-2024 y https://www.elysee.fr/en/emmanuel-macron/2025/02/11/statement-on-inclusive-and-sustainable-artificial-intelligence-for-people-and-the-planet, respectivamente.
← 59. Véase también https://oecd.ai/en/wonk/how-the-oecd-ai-policy-observatory-has-shaped-colombia-and-latin-americas-approach-to-ai-policy.
← 61. https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/guide-use-generative-ai.html.
← 62. https://www.cio.bund.de/Webs/CIO/DE/digitale-loesungen/kuenstliche_intelligenz/kuenstliche_intelligenz-node.html.
← 63. https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper.
← 64. Véase https://hyscaler.com/insights/bahrain-pioneers-ai-regulation y https://www.ita.gov.om/itaportal/Data/SiteImgGallery/2024731125545486/National%20Artificial%20Intelligence%20Policy.pdf, respectivamente.
← 65. https://www.whitehouse.gov/wp-content/uploads/2025/02/M-25-21-Accelerating-Federal-Use-of-AI-through-Innovation-Governance-and-Public-Trust.pdf.
← 66. https://research-data.urosario.edu.co/file.xhtml?persistentId=doi:10.34848/YN1CRT/8OHRT0&version=1.0.
← 68. Véase https://github.com/ombegov/2024-Federal-AI-Use-Case-Inventory para consultar una consolidación centralizada de los inventarios de casos de uso de IA de todos los organismos del gobierno federal de los Estados Unidos.
← 69. Véase https://www.algoritmospublicos.cl/repositorio, https://odap.fr/inventaire, y https://algoritmes.overheid.nl, respectivamente.
← 70. Véase https://algoritmeregister.amsterdam.nl/en/ai-register y https://ai.hel.fi/en/ai-register, respectivamente.
← 71. https://stip.oecd.org/stip/interactive-dashboards/policy-initiatives/2023%2Fdata%2FpolicyInitiatives%2F2329.
← 73. https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592.
← 74. Para facilitar su análisis, los resultados de la calificación del derecho mundial a la información (RTI) evalúan el marco jurídico formal del derecho a la información en relación con cada país en función de una serie de categorías (por ejemplo, ámbito de aplicación, procedimiento de solicitud, procedimiento de recurso). Véase https://www.rti-rating.org/country-data.
← 75. Véase también el trabajo del Grupo de expertos en IA de la OCDE (https://oecd.ai/site/risk-accountability).
← 76. Véase https://www.coe.int/en/web/portal/-/huderia-new-tool-to-assess-the-impact-of-ai-systems-on-human-rights.
← 77. Véase, por ejemplo, la cobertura del tema en (OECD/CAF, 2022[30]).
← 78. Véase https://www.nist.gov/news-events/news/2024/05/nist-launches-aria-new-program-advance-sociotechnical-testing-and.
← 79. https://www.forgov.qld.gov.au/information-and-communication-technology/qgea-directions-and-guidance/qgea-policies-standards-and-guidelines/foundational-artificial-intelligence-risk-assessment-guideline.
← 80. La OCDE está explorando en mayor medida el concepto de umbrales de riesgo para la IA, como demostró una consulta pública sobre el tema celebrada en septiembre de 2024 (https://oecd.ai/wonk/seeking-your-views-public-consultation-on-risk-thresholds-for-advanced-ai-systems-deadline-10-september).
← 81. Véase https://www.gov.uk/government/publications/emerging-processes-for-frontier-ai-safety/emerging-processes-for-frontier-ai-safety#responsible-capability-scaling.
← 82. Las Entidades Fiscalizadoras Superiores (EFS) son organismos públicos encargados de auditar los ingresos y los gastos públicos. Mediante el control de la gestión financiera pública y la presentación de informes, garantizan que los recursos se utilizan según lo prescrito. Véase https://sirc.idi.no/about/what-are-sais para más información.
← 86. Véase https://www.aph.gov.au/Parliamentary_Business/Committees/Joint/Public_Accounts_and_Audit/PublicsectoruseofAI/Report y https://committees.parliament.uk/work/6986/governance-of-artificial-intelligence-ai, respectivamente.
← 90. https://www.wa.gov.au/organisation/department-of-the-premier-and-cabinet/office-of-digital-government/western-australian-artificial-intelligence-advisory-board.
← 91. Véanse https://ised-isde.canada.ca/site/ised/en/canadian-artificial-intelligence-safety-institute, https://digital-strategy.ec.europa.eu/en/policies/ai-office, https://www.economie.gouv.fr/actualites/la-france-se-dote-dun-institut-national-pour-levaluation-et-la-securite-de-lintelligence, https://aisi.go.jp, https://www.aisi.re.kr, https://t.ly/vCtd1, https://www.gov.uk/government/publications/ai-safety-institute-overview, y https://www.nist.gov/aisi, respectivamente.
← 92. https://indiaai.gov.in/article/india-takes-the-lead-establishing-the-indiaai-safety-institute-for-responsible-ai-innovation. Información complementada por funcionarios del Gobierno de la India.
← 93. https://www.gov.uk/government/publications/public-attitudes-to-data-and-ai-tracker-survey-wave-4/public-attitudes-to-data-and-ai-tracker-survey-wave-4-report.
← 94. https://www.etalab.gouv.fr/ia-decouvrez-et-participez-au-projet-piaf-pour-des-ia-francophones.
← 95. https://ecastnetwork.org y https://issues.org/thinking-like-citizen-participatory-technology-assessment-weller-govani-farooque.
← 96. https://digital-strategy.ec.europa.eu/en/consultations/ai-act-have-your-say-trustworthy-general-purpose-ai.
← 97. https://digital-strategy.ec.europa.eu/en/news/ai-act-participate-drawing-first-general-purpose-ai-code-practice.
← 98. La OCDE ha publicado una serie de informes sobre el tema "Lograr la innovación gubernamental transfronteriza", que abordan desafíos y casos de éxito en diversos ámbitos, incluida la IA. Véase https://cross-border.oecd-opsi.org.