Ce chapitre explique comment les gouvernements peuvent exploiter le potentiel de l'IA tout en gérant les risques. Il établit trois piliers – les leviers, les garde-fous et la participation – qui, ensemble, constituent le Cadre pour une IA digne de confiance dans l'administration publique. Les leviers comprennent la gouvernance, les données, les infrastructures numériques, les compétences et les talents, les investissements ciblés, les marchés publics et les partenariats ; les garde-fous couvrent les instruments contraignants et non contraignants, la transparence et la gestion des risques, ainsi que la surveillance ; la participation concerne les citoyens, les fonctionnaires et la collaboration transfrontalière. Ce chapitre préconise une approche systémique, une application proportionnée et fondée sur les risques des mesures, ainsi que des mécanismes pratiques tels que l'expérimentation, l'évaluation d'impact et l'audit afin de soutenir une adoption fiable à grande échelle.
Gouverner avec l’intelligence artificielle
4. Leviers, garde-fous et mécanismes de mobilisation des parties prenantes propices à la mise en œuvre d’une IA digne de confiance
Copier le lien de 4. Leviers, garde-fous et mécanismes de mobilisation des parties prenantes propices à la mise en œuvre d’une IA digne de confianceDescription
Principaux messages
Copier le lien de Principaux messagesLes pouvoirs publics peuvent s’appuyer sur différents dispositifs de gouvernance et de politique publique pour exploiter pleinement le potentiel de l’IA et gérer les divers risques et difficultés de mise en œuvre qu’elle présente. À cet effet, ils doivent s’efforcer d’adopter une approche systémique et d’anticiper les évolutions futures. Les mesures proposées devraient permettre de renforcer les leviers propices à une IA digne de confiance, d’établir des garde-fous et de mobiliser les parties prenantes.
Les leviers comprennent l’établissement de mécanismes et de processus de gouvernance, la compréhension du rôle des données en tant que pilier de l’IA, l’élaboration d'une infrastructure numérique, le développement des compétences et des talents, la réalisation d'investissements ciblés, le recours aux marchés publics et le développement du potentiel de l’IA par le biais de partenariats.
Parmi les garde-fous figurent les règles contraignantes ou non et les mécanismes de transparence et de redevabilité.
La participation des parties prenantes peut prendre différentes formes comme des assemblées de citoyens, la mobilisation d’agents de la fonction publique, l’implication des utilisateurs dans le développement de l’IA et la collaboration transfrontières.
Considérées dans leur ensemble, ces mesures de politique publique contribuent à former un Cadre pour une IA digne de confiance dans l'administration publique qui peut aider les pays à appliquer les Principes de l’OCDE sur l’IA. Des travaux futurs de l’OCDE s’intéresseront aux éléments de ce cadre de manière plus approfondie.
La politique publique au service de l’exploitation du potentiel de l’IA
Copier le lien de La politique publique au service de l’exploitation du potentiel de l’IAAlors que les autres sections de ce rapport traitent des opportunités et des défis auxquels font face les pouvoirs publics pour gouverner avec l’IA, ce chapitre s'intéresse à la façon d’y parvenir en gouvernant l’IA dans l’administration. Pour tirer pleinement parti du potentiel que présente l’IA pour l'administration tout en limitant ses risques, les pouvoirs publics doivent faire sciemment le choix d’une approche stratégique et responsable. Il conviendrait que cette approche soit alignée sur les Principes de l’OCDE sur l’IA, conçue en fonction du contexte et adaptée au développement et à l’utilisation de l’IA pour et par les pouvoirs publics. À cet effet, les gouvernements devraient agir sur trois fronts :
1. renforcer les leviers (comme la qualité des données., les compétences numériques et dans l’IA, le financement et l’infrastructure numérique) qui permettront de résoudre les principales difficultés de mise en œuvre et de parvenir aux résultats escomptés ;
2. établir des garde-fous (comme des outils de transparence, de redevabilité et de gestion des risques) pour anticiper et gérer les risques associés à l’IA ;
3. favoriser la participation des parties prenantes (notamment du public) afin de développer des systèmes d’IA qui tiennent compte de leurs besoins.
Ces mesures doivent permettre de saisir les opportunités et de gérer les divers risques et difficultés de mise en œuvre liés à l’IA par des politiques publiques ciblées. Par exemple, les difficultés liées à la nécessité de disposer de données suffisantes et de qualité peuvent être levées en actionnant les leviers favorisant une gouvernance et une infrastructure des données robustes. Pour prendre un autre exemple, pour remédier à des orientations lacunaires ou des réglementations obsolètes, il est possible de mettre en place des garde-fous par le biais de règles, contraignantes ou non, ou d'outils de réglementation agiles propres à assurer que l’IA sera utilisée dans le respect des principes éthiques, opérationnels et juridiques établis. L'implication active des parties prenantes tout au long du cycle de vie des systèmes d’IA (développement, déploiement et utilisation des technologies d’IA) et du cycle de l’action publique (conception, mise en œuvre et évaluation de la gouvernance et des politiques liées à l’IA) peut nourrir la compréhension, les attitudes et les comportements des parties prenantes, dont le public, et faire évoluer les technologies et la gouvernance en concordance avec les besoins sociétaux.
Les sections ci-après s’attachent à exposer les différents points que doivent prendre en compte les pouvoirs publics pour façonner un environnement favorisant un usage stratégique et responsable de l’AI dans les différents systèmes et fonctions de l’État. Elles livrent une analyse exhaustive des mesures et priorités de politique publique dans les trois domaines d’action évoqués. Chaque section souligne les principales options de politique publique que les pouvoirs publics devraient envisager pour assurer la cohérence et la viabilité de leur approche. Ces options doivent être étudiées à la lumière du contexte spécifique de leur pays, et notamment de la maturité numérique de leurs administrations. Par exemple, plutôt que de chercher à mettre en place tous les éléments évoqués en une seule fois, les pouvoirs publics pourraient établir des feuilles de route instaurant une gouvernance et une adoption progressives de l’IA qui tienne compte de leurs capacités institutionnelles, culturelles et technologiques.
Optimiser la valeur de l’IA dans l’administration publique par une approche globale et systémique
Pour établir les leviers, garde-fous et mécanismes de participation dont traite ce chapitre, les pouvoirs publics devraient aborder l’IA selon une approche systémique et chercher à comprendre les problèmes rencontrés par le public en les appréhendant comme des composantes d'un système global, interconnecté, plutôt que comme autant d’éléments isolés (OCDE, 2017[1]). Traditionnellement, les décideurs s’attaquent aux problèmes sociaux selon un mécanisme de cause à effet, c’est-à-dire par des interventions ponctuelles qui s’ajoutent les unes aux autres. Or, ces interventions peuvent avoir pour effet de transposer un problème d'une partie du système à une autre en traitant les symptômes sans s’attaquer à la cause. L’IA offre l’opportunité de réinventer la façon dont les pouvoirs publics agissent en ce qui concerne à la fois leur fonctionnement interne et les services rendus au public. Plutôt que de se demander comment intégrer l’IA aux systèmes et structures existants de l’administration, ils devraient aller plus loin dans leur réflexion et se demander comment l’IA peut les aider à totalement repenser les processus et les systèmes. Sans cela, ils courent le risque d’automatiser des inefficiences et de renforcer les incitations et les approches de gouvernance inadaptées. Certaines pratiques naissantes peuvent les y aider, comme les audits mis en œuvre pour faire la « chasse à la bureaucratie » qui consistent à évaluer méthodiquement le comportement d'un processus afin d’identifier les points de friction qui font que les utilisateurs risquent de ne pas aller au terme d'un processus ou doivent produire un effort psychologique excessif pour y parvenir (OCDE, 2024[2]). L’OCDE dispose d'un programme de travail spécifique sur les approches systémiques qui peut également se révéler utile.1
Les pouvoirs publics devraient prendre toute la mesure des évolutions futures possibles et les anticiper
Il reste beaucoup à apprendre sur l’IA et son évolution. Les leviers, garde-fous et mécanismes d'implication abordés dans ce chapitre peuvent ne tenir compte que des connaissances du moment, c’est-à-dire des utilisations et des effets connus de l’IA telle qu’elle existe actuellement et du potentiel qu’elles présentent pour demain. Mais il y existe également de nombreuses inconnues qui ne pourront être résolues qu’à mesure que la technologie se développera et que ses utilisations potentielles seront explorées. La mise en œuvre de l’IA dans les administrations sera jalonnée de découvertes, heureuses ou moins heureuses, et de développements qui n'ont été ni recherchés, ni anticipés. Les pouvoirs publics doivent donc adopter une approche agile et évolutive pour pouvoir s’adapter aux nouvelles possibilités et aux changements de comportement. Beaucoup de tâches que l’IA ne peut pour l'heure mener à bien seront réalisables à l’avenir. Les stratégies et les cadres d'action relatifs à l’IA doivent être suffisamment souples pour pouvoir suivre l’évolution des capacités et des contextes. Les pouvoirs publics doivent dès le départ prêter attention aux moindres signaux qui préfigurent l’avenir. Ils seront ainsi mieux à même de comprendre où et quand ils doivent intervenir, sans attendre que les processus et les tendances s'installent et deviennent onéreux et difficiles à inverser.
Ces considérations sont valables non seulement pour la gouvernance de l’IA mais également pour son utilisation au sein de l’administration publique. Les cas d'usage abordés dans ce rapport (dans le cadre d'une analyse approfondie dans le chapitre 5 et sous forme résumée dans le chapitre 2) ont le plus souvent trait à des améliorations progressives et à des gains de productivité. Or, cela ne doit pas occulter le fait que les utilisations émergentes ou futures de l’IA pourraient être entièrement nouvelles ou permettre de traiter des tâches qu'il était jusqu’alors complexe, impossible voire inconcevable de traiter avec l’IA, et faire naître de nouvelles opportunités et de nouveaux risques pour les administrations. Il sera peut-être nécessaire de créer ou de réinventer des cas d'usage et des approches de gouvernance ou, au contraire, de mettre un terme à certains d’entre eux. Les travaux de l’OCDE sur la Gouvernance anticipative de l’innovation (AIG) et sur la prospective stratégique peuvent aider les pouvoirs publics à mieux comprendre et à façonner les futurs possibles de l’IA2.
Renforcer les leviers favorisant l’adoption d’une IA digne de confiance
Copier le lien de Renforcer les leviers favorisant l’adoption d’une IA digne de confianceCes leviers sont les éléments de base et les ressources nécessaires à la mise en œuvre de l’IA dans l’administration.3 Ils forment l’environnement dans lequel des agents de la fonction publique dotés des compétences adaptées peuvent concevoir et déployer l’IA de manière fiable et efficace. Ils offrent également aux institutions publiques un soutien pratique pour exploiter pleinement le potentiel de l’IA. Les sections ci-après passent en revue les principaux leviers : la gouvernance, les données (y compris les données publiques ouvertes), l'infrastructure numérique, les compétences et les talents, les investissements dans l’IA, les marchés publics et les partenariats avec des acteurs non gouvernementaux. Ces leviers ont été définis une première fois par l’OCDE en 2024 ([3]) et font l'objet de plus amples développements dans les sections qui suivent. Inspirés des bonnes pratiques internationales, les moyens dont disposent les pouvoirs publics pour actionner ces différents leviers en fonction du contexte du pays sont abordés au fil des sections qui suivent.
Établir des mécanismes et des processus de gouvernance adaptés
Les pouvoirs publics sont passés à la vitesse supérieure en matière d’adoption de l’IA et, le plus souvent, ont couché leurs objectifs dans une stratégie nationale pour l'intelligence artificielle. Or, cette adoption est généralement menée au coup par coup au plus haut niveau, sans prévoir de mécanismes de gouvernance complets, robustes et propres à assurer un usage de l’IA qui soit responsable, produise un impact à long terme et reste viable. Alors que l’IA est de plus en plus intégrée aux activités des administrations, il conviendrait que chaque pays établisse des mécanismes de gouvernance solides pour en garantir une utilisation fiable, durable et efficace. Les avantages que présente l’IA devraient en outre être clairement exposés pour emporter l’adhésion de tous, au sein comme à l’extérieur de l’administration publique.
Un leadership fort au service d’une acception homogène de l’IA
Le leadership est un facteur majeur d’une adoption réussie de l’IA par les administrations. Il est primordial de donner le ton aux plus hauts niveaux et de communiquer activement sur les avantages potentiels de l’IA (Berryhill et al., 2019[4]). Si l’établissement de stratégies et de principes visant à assurer l’adoption d'une IA digne de confiance est essentiel, un leadership affirmé peut favoriser une acception homogène de l’IA et donner « l’exemple par le haut » afin d’instaurer la confiance dans l’IA, tant au sein qu’à l’extérieur de l’administration. Au Royaume‑Uni, les deux derniers Premiers ministres, Rishi Sunak et Keir Starmer, ont ainsi ardemment plaidé pour l’adoption de l’IA au sein de l’administration et au-delà. Pendant le mandat de Rishi Sunak, le Royaume-Uni a catalysé l’attention et la collaboration internationales sur l’IA en organisant en novembre 2023 le premier Sommet mondial de l’IA, dont les éditions suivantes se sont tenues en Corée et en France. Chacun des sommets a débouché sur une déclaration signée par de nombreux pays qui consignait les engagements pris dans ce domaine4. C’est également au cours du mandat de Rishi Sunak qu’a été lancé l’Incubator for AI (i.AI) du Royaume-Uni ; davantage axé sur l’administration, cet incubateur vise à faciliter le quotidien, à stimuler la croissance et à améliorer les services publics. Puis, sous l’égide de l’actuel Premier ministre Keir Starmer, le Royaume-Uni (2025[5]) a publié un Manuel de l’IA à l'intention des administrations du Royaume-Uni (Encadré 4.2) et présenté un plan audacieux d'utilisation de l’IA en vue de « remodeler l’État au service des travailleurs », notamment par la création de 2 000 postes d’apprenti dans le domaine des technologies et de l’IA au sein de l’administration. Enfin, pour favoriser le ruissellement de ce leadership dans toutes les organisations publiques du Royaume-Uni, (2025[6]) un Programme pour une administration numérique moderne impose à ces dernières de nommer un responsable du numérique à leur comité exécutif d'ici à 2026.
Les plus haut placés ont le pouvoir de définir une orientation stratégique qui se répercutera aux échelons inférieurs et contribuera à instaurer plus largement une culture d’utilisation de l’IA. Comme l’indique le Cadre de l’OCDE sur les talents et les compétences numériques dans le secteur public (2021[7]), « des hauts responsables qui créent un environnement encourageant la transformation numérique transmettront une vision claire de l’administration numérique et mettront activement en lumière ses avantages. [Ces] hauts responsables se montreront impliquées, présents et accessibles et donneront à leurs équipes les moyens d’agir en décentralisant la prise de décision ».5 Une étude de la Commission européenne (CE) (2024[8]) basée sur une enquête auprès de 576 responsables publics de sept pays a constaté que le leaderhip pouvait notamment influer sur l’adoption de l’IA en offrant des mesures incitatives robustes et/ou les ressources financières nécessaires à la mise en œuvre d'initiatives dans ce domaine, les répondants ayant pour leur part considéré que, de manière générale, la situation actuelle n’était pas satisfaisante.
Un leadership fort sur la question de l’IA peut favoriser une approche de l’innovation axée sur la mission. Dans ce type d’approche qui met l’accent sur la résolution de problèmes, les interventions des pouvoirs publics sont conçues de manière à mobiliser des ressources, à coordonner les parties prenantes et à stimuler l'innovation et la collaboration des pouvoirs publics et du secteur privé afin de se saisir à bras le corps des difficultés identifiées et d’atteindre les objectifs de la mission. Les politiques axées sur la mission associent généralement des mesures réglementaires, des incitations financières, des financements pour la recherche et des investissements ciblés afin de favoriser la réalisation des objectifs. Les dirigeants y jouent un rôle majeur en imprimant une orientation descendante et en ralliant un large soutien de sorte que toutes les composantes de l’administration avancent à l’unisson vers un même objectif (OCDE, 2021[9]).6 Plusieurs États et organisations intergouvernementales appliquent à l’IA une approche axée sur la mission, même si cette dernière est le plus souvent de stimuler la croissance économique dans le secteur privé (UCL IIPP, 2019[10] ; Vinnova, 2022[11]).
Adopter une approche stratégique et dirigée
Les pouvoirs publics peuvent mettre en place des stratégies et des orientations pour l’IA à l’échelle de l’ensemble de l’administration en mettant l’accent sur la cohérence de son utilisation et de son développement, dans le respect des grands principes et objectifs de l’administration. Par exemple, la stratégie nationale pour l'intelligence artificielle de 2023 de la République dominicaine (2024[12]) est résolument axée sur l’IA dans l’administration. Le Canada (2025[13]), la Suisse (2025[14]) et l’Uruguay (2021[15]) ont chacun élaboré une stratégie dédiée à l’IA dans l’administration, tandis que le Royaume‑Uni travaille actuellement à sa propre stratégie (2024[16]). Même si elle ne porte pas le nom de « stratégie », la directive Accélérer l’utilisation de l’IA au niveau fédéral par l’innovation, la gouvernance et la confiance publique adoptée en avril 2025 aux États-Unis remplit bon nombre des critères d'une stratégie visant à favoriser le changement dans l’ensemble de l’administration fédérale et a, de surcroît, le mérite d’être contraignante (Encadré 4.1). D’autres pays ont défini des objectifs concrets pour l’IA dans l’administration qui doivent être intégrés dans des stratégie nationale plus larges. Globalement, ces stratégies à haut niveau abordent nombre des leviers, garde-fous, mécanismes de participation et cas d’usage abordés dans le présent rapport. Certains pays ont également adopté des stratégies ciblées pour guider les efforts en matière d’IA dans certaines fonctions de l’État. La France a par exemple élaboré une stratégie d’utilisation de l’IA dans le domaine de la gestion des ressources humaines (voir chapitre 5, encadré 5.19), tandis que la directive américaine susmentionnée laisse à ses agences gouvernementales 180 jours pour élaborer et publier leur propre stratégie d’IA.
Encadré 4.1. Accélérer l’utilisation de l’IA au niveau fédéral aux États-Unis
Copier le lien de Encadré 4.1. Accélérer l’utilisation de l’IA au niveau fédéral aux États-UnisLe 3 avril 2025, conformément aux dispositions de la loi sur l’IA dans l’administration de 2020, le Bureau de la gestion et du budget de la Maison Blanche (OMB) a publié la directive M-25-21 : Accélérer l’utilisation de l’IA au niveau fédéral par l’innovation, la gouvernance et la confiance du public. Cette directive promeut l’innovation en matière d’IA, l’adoption et l’utilisation responsables de l’IA, et la préservation des garanties prévues par le droit américain pour protéger la vie privée, les droits civils et les libertés publiques. En vertu de cette directive, les agences doivent notamment :
Désigner un Responsable principal de l’IA (Chief AI Officer, CIAO) chargé de conseiller à haut niveau, d’œuvrer en faveur des objectifs de l’agence en matière d’IA, de coordonner les efforts en matière d’IA au sein de l’agence et de représenter l’agence auprès des organes de coordination et des instances extérieures ; étant précisé que l’OMB est tenu de convoquer un Conseil interagences des CAIO pour appuyer la coordination et maximiser les efficiences.
Satisfaire à ses obligations de communication, notamment en mettant à jour l’inventaire des cas d’utilisation de l’IA au moins une fois par an.
Mettre en œuvre des pratiques minimales de gestion des risques pour les systèmes d’IA susceptibles de produire un impact significatif à compter de leur déploiement (« IA à fort impact ») d'une manière qui soit proportionnée au risque identifié au vu de l’usage prévu, comme précisé ci-après (Encadré 1.3).
Publier les stratégies d’IA de l’agence visant à identifier et à éliminer les obstacles à une utilisation responsable de l’IA et à améliorer la maturité des applications à l’échelle de l’ensemble de l’entité (agences relevant de la loi relative aux directeurs financiers ou « loi CFO »).
Les stratégies doivent comprendre une évaluation du niveau actuel de maturité de l’agence en matière d’IA ainsi qu'une feuille de route pour atteindre les objectifs de maturité fixés au moyen de plans et de processus visant à, notamment, mettre en place une infrastructure propice à la mise en œuvre de l’IA (ex. infrastructure informatique à haute performance) tout au long du cycle de vie de l’IA ; assurer l’accès à des données de qualité ; renforcer les capacités d’innovation de l’entité dans le domaine de l’IA ; rechercher, recruter, former, retenir et outiller des agents prêts pour l’IA, et doter les non-spécialistes concernés par l’IA des compétences de base en la matière ; et développer les activités, les mécanismes de gouvernance et l’infrastructure nécessaires pour gérer les risques liés à l’utilisation de l’IA.
Élaborer une politique relative à l’IA générative qui définisse les conditions d'une utilisation acceptable au vu des missions imparties ainsi que les garde-fous et les mécanismes de surveillance à même de permettre l’utilisation de l’IA générative au sein de l’agence sans entraîner de risque indu.
Partager spontanément les données et les actifs d’IA au sein du gouvernement fédéral, y compris les codes développés spécialement, ainsi que les modèles développés ou achetés par l’agence et, dans la mesure du possible, publier et conserver le code dans un registre public sous la forme d’un logiciel en open source (certaines exceptions peuvent s’appliquer).
Élaborer et publier les plans de l’agence pour se mettre en conformité avec la directive M-25-21 (et les mettre à jour tous les deux ans).
Revoir et mettre à jour, si nécessaire, les politiques internes relatives à l’infrastructure informatique, aux données, à la cybersécurité et à la vie privée de manière à respecter la directive M-25-21 et tout décret présidentiel ou loi applicables.
Acheter les capacités d’IA de manière responsable (Encadré 4.7).
Note : la politique s’applique en principe à tous les ministères et agences du pouvoir exécutif, y compris aux agences de réglementation indépendantes. Certaines dispositions de la politique ne s'appliquent qu’aux agences relevant de la loi CFO (loi sur les directeurs financiers de 1990). Les agences nationales de renseignement et le ministère de la Défense sont également exemptés de certaines obligations. Le document source comprend des dispositions plus détaillées sur son champ d’application.
Souhaitant aller au-delà d'une simple stratégie, certains pays ont mis au point des lignes directrices complètes. Par exemple, le Royaume-Uni a publié un Manuel de l’IA à l'intention des administrations du Royaume-Uni (Encadré 4.2), la Nouvelle-Zélande (2025[18]) un Cadre sur l’IA dans le service public, et l’Irlande (2025[19]) des Lignes directrices pour une utilisation responsable de l’IA dans les services publics. Les orientations de ce type sont utiles non seulement pour mettre en œuvre des stratégies mais également pour contrer l’aversion au risque liée à la mise en œuvre de lois et réglementations plus strictes (voir la discussion sur les garde-fous ci-dessous) en épargnant aux entités ou à leurs équipes la nécessité d’en faire leur propre interprétation. Comme le souligne la cofondatrice de Code for America, « une législation bien pensée et bien rédigée prend sa source à l’échelon supérieur d’une très haute hiérarchie et la souplesse souhaitée par ses auteurs se réduit à mesure que l'on descend dans cette hiérarchie. Lorsqu’une législation produit des effets très différents de ceux projetés par ses auteurs, c’est souvent en raison de cet accroissement graduel de la rigidité » (Pahlka, 2024[20]).
Toujours pour éviter les effets de l’aversion pour le risque, les lignes directrices pourraient laisser davantage de latitude à des agents expérimentés de la fonction publique quant à l'interprétation des règles. Elles pourraient également prendre expressément en compte le fait que, comme pour toute activité humaine, l’exploitation de l’IA n’est pas sans risques. Plusieurs outils tels que les sciences comportementales peuvent être mis à profit pour concevoir les lignes directrices et communiquer de manière à ce qu’elles produisent l’effet recherché sur les utilisateurs et optimisent la valeur de l’adoption de l’IA, tout en réduisant les risques et en favorisant une évolution constructive des comportements ainsi qu’une mise en œuvre responsable de l’IA (OCDE, 2021[21]).7
Encadré 4.2. Manuel de l’IA à l'intention des administrations du Royaume-Uni
Copier le lien de Encadré 4.2. Manuel de l’IA à l'intention des administrations du Royaume-UniCe manuel publié en février 2025 par le Service numérique du gouvernement du Royaume-Uni a été élaboré en collaboration avec divers départements de l’administration centrale, des entreprises technologiques du secteur privé, des établissements de l’enseignement supérieur et des utilisateurs. Il contient dix principes et toute une série de conseils sur de nombreuses questions.
Les 10 principes pour guider les administrations dans leur recours à l’IA
1. Comprendre ce qu’est l’IA et connaître ses limites
2. Utiliser l’IA de manière responsable, conformément au droit et à l’éthique.
3. Savoir utiliser l’IA en toute sécurité.
4. Mettre en place un contrôle par l’humain à l’étape appropriée.
5. Comprendre comment gérer le cycle de vie de l’IA.
6. Utiliser le bon outil pour mener à bien la mission.
7. Faire preuve d'ouverture et de collaboration.
8. Travailler dès le départ avec des collègues responsables des achats.
9. Disposer des compétences et des aptitudes nécessaires pour mettre en œuvre et utiliser l’IA.
10. Appliquer ces principes en sus des politiques de l’organisation et mettre en place une assurance adaptée.
Explications et conseils
Le manuel fournit des informations sur ce qu’est l’IA, ses différents domaines, ses applications dans l’administration, ses limites, la conception de solutions fondées sur l’IA, la constitution d'une équipe, la définition de l’objectif, l’achat d'outils d’IA, l’utilisation sûre et responsable de l’IA, les considérations d’ordre éthique et juridique, la protection des données et de la vie privée, la sécurité et la gouvernance. Il présente également différents cas d'utilisation de l’IA tirés d'initiatives concrètes menées dans le secteur public du Royaume-Uni.
Déterminer si l’IA constitue la solution la plus adaptée
Il conviendrait de fournir des conseils pour déterminer si l’IA constitue la solution la plus adaptée pour résoudre un problème donné, et donc prendre du recul par rapport à l’IA. Malgré ses immenses capacités, l’IA n’est pas toujours la meilleure solution et, dans de nombreux cas, son utilisation ne sera pas viable. Il ressort notamment d’un rapport récent de l’institut Ada Lovelace (2025[23]) qu’« il existe un manque de données surprenant sur l’efficacité et l’impact des outils d’IA, même d'un point de vue purement technique. Il est primordial d’évaluer les interventions de l’IA au regard du contexte pour déterminer sa performance et la valeur ajoutée qu’elle apporte par rapport aux méthodes manuelles et traditionnelles disponibles. » Des travaux menés par RAND concluent par ailleurs que la mauvaise compréhension du problème à résoudre et le recours à l’IA pour des projets qui ne le requièrent pas sont les deux principaux facteurs d’échec des projets utilisant l’IA (2024[24] ; 2025[25]).
Avec l’IA, il est fréquent que les utilisateurs commencent par s'intéresser à une solution avant de rechercher les problèmes que la technologie pourra résoudre. De manière générale, les pouvoirs publics devraient s’efforcer de comprendre précisément les résultats que l’administration et les citoyens cherchent à obtenir et les obstacles qui les en empêchent. Ce n’est qu’après avoir déterminé ces éléments et défini leurs priorités qu’ils pourront décider si l’IA (ou une autre méthode) constitue la meilleure solution pour atteindre ces objectifs (Berryhill et al., 2019[4] ; Mulgan, 2019[26]). De même, les pouvoirs publics doivent disposer des capacités nécessaires pour identifier et comprendre le problème. Ils doivent également actionner les autres leviers présentés dans ce chapitre, notamment les compétences qui permettent au personnel de comprendre les forces et les faiblesses de l’IA par rapport aux autres technologies et processus, afin d'encourager les utilisateurs à bien définir leurs besoins.
Certains pays prennent spécifiquement en compte ces différents points dans leurs directives à l'intention de leurs administrations. Par exemple le Manuel de l’IA à l'intention des administrations du Royaume-Uni dispose que les agents de la fonction publique doivent « être ouverts à l’idée que, parfois, l’IA n’est pas la meilleure solution à [leur] problème, et qu’il sera probablement plus facile de le résoudre à l’aide de technologies plus établies. » Au Royaume-Uni, des Directives relatives aux achats publics de systèmes d’IA (2020[27])conseillent aux agents responsables de ces achats de « commencer par exposer la problématique, préciser en quoi l’IA serait utile pour la résoudre, et rester ouverts à d’autres solutions ». Aux États-Unis, le Guide de l’IA à l'intention de l’administration ([28]) comporte des éléments incitant à « se concentrer sur le fond du problème » et à répondre aux questions suivantes : « Est-ce la meilleure solution pour résoudre ce problème en particulier ? Avez-vous envisagé d’autres solutions ? »
Un processus aidant à répondre à ces questions pourrait être mis en place, soit en l’intégrant à une analyse d'impact ex ante (voir « Analyses d'impact » dans la section consacrée aux garde-fous ci-dessous), soit sous la forme d'un processus autonome intervenant avant d’entrer dans le flux de projets d’IA.
Définir clairement les rôles et responsabilités
Les rôles et les responsabilités doivent être clairement définis pour assurer la cohérence du déploiement, de l’utilisation et de la généralisation éventuelle d’un système d’IA. Ils devraient être définis en concertation avec les parties prenantes concernées et assignés aux différentes instances publiques en les incorporant à leur mandat. Cela contribuerait à la solidité de la structure institutionnelle et, partant, à la mise en œuvre des stratégies nationales au sein des différentes instances et entre elles, et appuierait les mécanismes de reddition de comptes et de suivi dans l’ensemble de l’administration publique. Plusieurs pays européens ont entrepris de remanier les mandats des ministères ou organismes existants pour assurer la cohérence du déploiement de l’IA. Citons sur ce point le ministère du Numérique et de la gouvernance publique de la Norvège et le secrétaire d’État à la Transformation numérique et à l’IA du ministère de la Transformation numérique et de la fonction publique (OCDE, 2024[3]). Le Royaume-Uni a pour sa part consolidé la plupart des rôles et des responsabilités au sein des secteurs de son Département de la science, de l’innovation et de la technologie (DSIT) (OCDe/UNESCO, 2024[29]). Au niveau individuel, la directive adoptée aux États-Unis qui fait l’objet de l’Encadré 4.1 impose aux agences du Gouvernement fédéral de désigner un CAIO pour diriger leurs efforts en matière d’IA. Les États peuvent également répartir les rôles et les responsabilités en fonction des objectifs stratégiques à atteindre. Ainsi, au Chili et en Colombie, les stratégies nationales en matière d’IA désignent des responsables pour chacun des engagements pris dans la stratégie. La Colombie précise en sus le délai dont dispose chaque responsable pour donner effet à l’engagement ainsi que le budget alloué et des indicateurs de suivi (OCDE/CAF, 2022[30] ; CONPES, 2025[31]). Lorsqu’ils définissent ces rôles et responsabilités, les pays devraient désigner l’entité ou les entités qui ont compétence pour élaborer une politique d'utilisation de l'IA dans l’administration. Lors de ses échanges avec les pays, l’OCDE a en effet constaté une certaine confusion quant à l’entité chargée de fixer les règles, ce qui peut entraver les efforts de transformation numérique.
Coordonner les efforts au sein de l’administration et entre les administrations
Les pays peuvent accentuer leurs efforts de coordination et de collaboration pour assurer une approche holistique de l’adoption et de la gouvernance de l’IA. La création de groupes de travail ou de comités interministériels peut faciliter la prise de décision, la communication et la collaboration entre différentes institutions. Tous les acteurs peuvent ainsi prendre part à la définition des objectifs généraux et œuvrer ensemble à leur réalisation. Par exemple, la directive des États-Unis présentée à l’Encadré 4.1 impose d’établir un Conseil interagences des CAIO. Pour prendre un autre exemple, l’Australie a chargé un Groupe de travail (de septembre 2023 à juin 2024) sur l’AI dans l’administration d’élaborer une politique, des normes et des orientations pour assurer une utilisation sûre, responsable et conforme à l’éthique de l’IA dans le service public (OCDE, 2024[3]).8 À l’échelon infranational, le gouvernement de Dubaï aux Émirats arabes unis a désigné 22 CAIO issus de différentes instances du gouvernement pour diriger et coordonner les efforts en matière d’IA (WAM, 2024[32]).
La coordination transversale entre les différents niveaux d’administration est également importante. Beaucoup d’applications de l’IA ont un impact local significatif, notamment sur la prestation des services publics et sur le bien-être social, les administrations locales étant plus proches des citoyens et des habitants. Sans coordination, les approches en matière d’IA risquent d’être fragmentées. Lorsque les municipalités et les instances régionales développent des solutions d’AI chacune de leur côté, des inefficiences, une duplication des efforts et des incohérences dans les cadres de gouvernance et les expériences utilisateur peuvent survenir (Verhulst et Sloane, 2020[33]). De même, concevoir des politiques et des stratégies nationales sans tenir compte des besoins locaux peut aboutir à des approches asymétriques ou inadaptées à la réalité sur le terrain. Pour éviter cet écueil, le Danemark a chargé son nouveau Groupe de travail numérique sur l’IA de déployer l’adoption de l’IA à tous les niveaux de l’administration de manière à assurer sa conformité avec les priorités, les principes et les approches de gouvernance9. De manière similaire, en Suède, AI Sweden et Vinnova ont lancé l’initiative Collaboration pour l’IA dans les municipalités et la société civile (Kraftsamlingen) afin d’aider les municipalités et les organisations de la société civile à intégrer l’IA à leurs activités. Depuis 2022, l’aide sur mesure assurée par cette initiative, notamment par des conseils sur l’adoption de l’IA et les possibilités de financement de projets concrets, a favorisé l’émergence d'un écosystème d’IA plus coordonné et plus efficace dans l’ensemble des administrations publiques locales.
Créer des espaces pour expérimenter
Les pays doivent également allouer du temps et des moyens à l’exploration des utilisations de l’IA car l’expérimentation et l’apprentissage itératif sont essentiels pour développer les capacités d’IA (OCDE/CAF, 2022[30]). Outre qu'ils favorisent l’apprentissage et la découverte de nouvelles approches et possibilités, les environnements contrôlés permettant d’expérimenter et de tester l’IA, facilitent l’identification de failles techniques et d’éventuels biais comportementaux à la fois des systèmes d’IA et des personnes qui les utilisent et, partant, des difficultés de gouvernance qui y sont associées. En outre, l’expérimentation permet l'incubation de systèmes d’IA jusqu’à ce que les solutions soient suffisamment robustes pour être déployées à plus grande échelle. Cela contribue à mettre au jour certaines préoccupations de politique publique grâce à des tests en conditions quasi-réelles (OCDE, 2019[34]). De telles approches passent par l’implication des parties prenantes au stade du développement afin d’évaluer les besoins des utilisateurs ainsi que la disponibilité et la qualité des données, et de suivre l’avancement en continu, dès les phases de prototypage et de pilotage (OCDe/UNESCO, 2024[29]). Parmi ce type d’environnements figurent les centres d'innovation, les laboratoires et les « bacs à sable ». Les expérimentations peuvent se faire en « mode startup », où elles sont déployées, évaluées et modifiées, puis transposées à une échelle supérieure ou inférieure, ou abandonnées rapidement, selon le cas (OCDE, 2023[35]). Outre l’expérimentation en interne, les pouvoirs publics ont également la possibilité de travailler avec des acteurs non gouvernementaux tels que les start-up GovTech pour concevoir et mener les expérimentations d’IA (voir la section de ce chapitre consacrée au recours aux start-ups GovTech).
Qui plus est, ces environnements stimulent la collaboration entre le secteur public, les milieux universitaires et le secteur privé, favorisent les échanges d’idées et accélèrent le développement des technologies liées à l’IA. En simulant des conditions réelles, ils permettent une validation rigoureuse des systèmes d’IA et assurent ainsi leur robustesse, leur fiabilité et leur sécurité avant leur déploiement. Ces méthodes de test et d’expérimentation améliorent l’efficacité des solutions d’IA tout en renforçant la confiance du public en validant ces technologies par une identification et un traitement précoce des potentiels risques, biais ou inefficiences, avant un déploiement généralisé.
L’UE a par exemple lancé, en collaboration avec ses États membres, un réseau permanent d’installations d'essai et d'expérimentation (TEF) parmi lesquelles CitCom.ai. Ce projet axé sur les villes et les communautés intelligentes vise à accélérer le développement d'une IA digne de confiance dans l’Union européenne en offrant aux innovateurs, entreprises comme organismes publics, la possibilité de tester et d’expérimenter des solutions basées sur l’IA en conditions réelles. On en trouve d’autres exemples :
Aux États-Unis, la Mitre Corporation, un centre de recherche-développement financé par l’État, travaille au développement d’un supercalculateur pour alimenter un bac à sable réglementaire de l'IA qui sera capable de former de nouveaux systèmes d’IA avancés et spécifiques à l’administration10.
Au Royaume‑Uni, l’Incubator for AI (i.AI) facilite l’expérimentation puis le déploiement éventuel d’un système en quatre étapes : 1) le prototypage, qui vise à tester et à évaluer rapidement des idées d’applications de l’IA ; 2) la livraison, avec une mise à l’échelle des prototypes validés pour les équipes des administrations dans lesquelles elles peuvent être utiles ; 3) la modularisation, qui vise à diffuser les travaux techniques dans l’ensemble des administrations, y compris le code source en accès libre ; et 4) un rôle fédérateur et de conseil, pour aider à identifier les domaines dans lesquels les enseignements et les produits pourraient être transposés11.
De son côté, la France a créé en juillet 2023 ALLiaNCE, un incubateur IA lancé par la direction interministérielle du numérique (DINUM). Ce projet interministériel offre une illustration d’une initiative dirigée par le gouvernement et visant à structurer l’expérimentation et la mise à l’échelle de l’IA dans les fonctions essentielles de l’État12. ALLiaNCE est un incubateur de produits qui suit une méthodologie agile et axée sur l’utilisateur mise au point par beta.gouv.fr et reposant sur l’itération rapide, les retours des utilisateurs et l’impact mesurable afin d’accélérer l’adoption de l’IA par les administrations. Les critères de sélection structurés d’ALLiaNCE, fondés sur l’impact, le potentiel de mutualisation, la participation des utilisateurs et le respect de principes éthiques, attestent d’une approche rigoureuse pour tester et déployer des projets d’IA responsables.
En Australie (2024[36]), plus de 60 agences du Service public australien ont testé Microsoft Copilot pendant une durée de six mois. Quelque 7 700 agents de la fonction publique ont participé à cet essai, dont les résultats ont été variés. Cependant, dans l'ensemble, les utilisateurs ont indiqué avoir constaté une amélioration de l’efficacité et de la qualité de l’IA pour effectuer des synthèses et élaborer des premières versions de documents. Toutefois, l’adoption de l’IA nécessite des efforts concertés pour lever les obstacles techniques, culturels et de capacité.
Le Portugal et l’Espagne se sont associés à des acteurs de la GovTech pour promouvoir l’expérimentation de technologies numériques, dont l’IA, dans l’administration judiciaire.13 Également dans le domaine GovTech, mais avec une portée plus large, le GovTechLab espagnol est un incubateur de cas d'usage de l'IA qui identifie les scénarios dans lesquels l'IA générative peut avoir un impact sur les administrations publiques, que ce soit en améliorant l'efficacité de la prestation des services publics, en réduisant la charge de travail ou en améliorant les services aux citoyens.14 Vingt des 300 cas d'usage identifiés feront l'objet d'essais pilotes dans des domaines tels que la classification des documents, les assistants IA et la préparation des appels d'offres et des subventions. Ceux qui auront donné de bons résultats seront développés à plus grande échelle et proposés comme service à l'ensemble de l'administration. Lorsqu’ils se lancent dans des expérimentations et des projets pilotes d’IA de petite envergure, les pays devraient s'interroger sur leur définition du succès et définir des indicateurs et des cadres d’évaluation pour déterminer si un projet a porté ses fruits, ce qui a fonctionné ou non, tirer les enseignements de l’expérience et les diffuser. Le Guide sur l’évaluation d’impact des interventions de l’IA du Royaume‑Uni en fournit un bon exemple, illustrant son propos par une réflexion sur l’application de ce type d’évaluation à différents projets d’IA, du test à petite échelle jusqu’à la mise en œuvre complète.
L’OCDE travaille actuellement à l’élaboration d'un rapport sur l’expérimentation de l’IA dans l’administration qui passera en revue les pratiques actuelles afin d’en tirer les principaux enseignements et d’aider les décideurs à élaborer leurs propres directives d’expérimentation à l‘intention de leurs institutions (OCDE, à paraître[37]).
Créer un socle de données solide
Les données sont l’actif sous-jacent de l’IA ; ce sont elles qui permettent à l’IA de fonctionner, d’évoluer et de créer de la valeur ajoutée pour le public. L’adage « garbage in, garbage out » trouve ici pleinement son sens : la performance de l’IA est directement corrélée à la qualité et à la représentativité des données utilisées pour l’entraîner. Or, tout au long de leur cycle, les systèmes d’IA requièrent souvent de vastes quantités de données pour produire des résultats pertinents.
Les données nécessaires peuvent provenir de l’administration, du secteur privé ou d’autres sources. Cette section traite principalement des données de l’administration, mais l’OCDE (à paraître[38]) mène actuellement des travaux pour répertorier les sources à partir desquelles les développeurs d’IA obtiennent leurs données d’entraînement et présenter leurs principales caractéristiques.
L’accès aux données de l’administration et leur partage aux fins des systèmes d’IA soulèvent des problématiques complexes sur le plan de la gouvernance des données. Les administrations font face à diverses contraintes réglementaires et opérationnelles ; elles doivent notamment préserver la vie privée, s’appuyer sur des résultats non biaisés, assurer la sécurité des données et démêler les règles et réglementations qui régissent le partage et l’utilisation des données ainsi que les droits de propriété intellectuelle. Les entités du secteur public sont également confrontées à des défis d’ordre technique, comme assurer l’interopérabilité de différents systèmes de données ou acquérir les capacités techniques nécessaires à une gestion efficace des données.
Protection de la vie privée, de la sécurité et de la propriété intellectuelle
Les pays ont entrepris d’établir des cadres, des lignes directrices et des mécanismes pour promouvoir une gouvernance solide des données de manière à préserver la vie privée, à garantir la sécurité et à protéger les droits de propriété intellectuelle. Ils sont souvent le résultat d’une collaboration entre les instances de régulation, les parties prenantes du secteur privé et la société civile. Par exemple :
En Corée, la Commission de protection des informations personnelles (2023[39]) a publié un guide relatif au traitement des données personnelles et le développement de l’AI. Il présente les fondements juridiques du traitement des données personnelles, établit des règles de sécurité et suggère des mesures pour protéger les droits des personnes au sein des systèmes d’IA.
Le Cadre sur l’IA dans le service public de la Nouvelle-Zélande (2025[18]) et le Manuel de l’IA à l'intention des administrations du Royaume-Uni (2025[22]) contiennent tous deux des principes pour une utilisation de l’IA dans l’administration qui soit sûre et respectueuse de la vie privée.
La France a quant à elle rapproché les concepts d’expérimentation (voir ci-dessus) et de protection des données personnelles et établi un bac à sable « données personnelles » pour créer un environnement favorisant des expérimentations sûres ; l'initiative s’accompagne d'une formation et d’un soutien pratique axé sur la gestion des données personnelles et le respect de la réglementation (Encadré 4.3).
Certains pays envisagent également d’appliquer des technologies qui contribuent à la protection de la vie privée, comme l’anonymisation des données, aux données sensibles utilisées pour entraîner l’IA. Ces technologies peuvent d’ailleurs à leur tour être améliorées grâce à l’IA (OCDE, 2024[40]).15
Encadré 4.3. En France, un bac à sable « données personnelles » dédié à l’IA dans les services publics
Copier le lien de Encadré 4.3. En France, un bac à sable « données personnelles » dédié à l’IA dans les services publicsEn 2023, la CNIL, l’autorité française de protection des données, a lancé un « bac à sable » pour favoriser l'innovation dans le domaine de l’IA au bénéfice des services publics. Ce bac à sable offre à des organismes sélectionnés un accompagnement poussé afin qu'ils apprivoisent la réglementation applicable aux données personnelles à un stade précoce de développement du projet. Bien qu’il ne permette pas de lever les contraintes légales, ce bac à sable aide les organismes à trouver des solutions à des problématiques en matière de conformité. Quatre projets ont été sélectionnés pour bénéficier de l’accompagnement du nouveau service IA de la CNIL :
Albert (DINUM) : ce projet s’appuie sur un modèle de langage pour aider les agents de la fonction publique à améliorer les réponses fournies aux usagers, avec des projets pilotes auprès du réseau des maisons « France services ».
Intelligence Emploi (Pôle Emploi) : ce projet fournit aux usagers des conseils de recherche d’emploi personnalisés et aide à identifier le service qui leur sera plus adapté en s'appuyant sur leurs données professionnelles.
Ekonom IA : ce projet, qui fournit aux usagers des informations et des préconisations sur leur consommation d’eau, contribue à des objectifs écologiques et pourrait être adapté à d'autres politiques publiques.
Projet vidéo de la RATP : l’objectif est de développer une IA qui détecterait des événements grâce à la captation de données matricielles ; protectrice de la vie privée en raison de sa conception, cette technologie garantirait qu’aucune donnée personnelle ne soit récupérée.
Source : (CNIL, 2023[41] ; [42]).
Assurer la représentativité des données
Veiller à ce que les systèmes d’IA soient entraînés à l'aide de données représentatives est essentiel pour obtenir des résultats exacts et pertinents. Certains pays comptent dans leur population différentes communautés avec chacune leur langue et leurs traditions. Dans d'autres, des facteurs démographiques ou contextuels influent sur les données requises pour que l’IA soit efficace. Comme l'indique le rapport de l’OCDE « Good Practice Principles for Data Ethics in the Public Sector » (2021[43]), l’utilisation de données non représentatives pour entraîner l’IA peut conduire à des problèmes majeurs, notamment pour les fonctions de l’État qui doivent reposer sur des politiques et des décisions équitables et exactes parce qu’elles peuvent avoir des répercussions concrètes sur la population cible. Parmi ces problèmes figurent notamment des algorithmes et des décisions biaisés, et une incapacité à concevoir des services et politiques sur mesure pour les groupes qui sont sous-représentés dans les données, comme l’expose le chapitre 1.
Plusieurs pays s’efforcent actuellement d’y remédier. Certains ont ainsi lancé des initiatives pour renforcer la représentativité dans les langues (OCDE, 2023[44] ; Peixoto, Canuto et Jordan, 2024[45])16, notamment :
Pour promouvoir la représentation des langues, l’Agence danoise pour l'administration numérique a mis en place l’initiative « Une ressource commune en langue danoise » ainsi qu’une Plateforme danoise pour les ressources de langue danoise (2024[46]), dont l’objectif est de collecter, de compiler et de publier des données linguistiques et d'autres outils susceptibles de soutenir le développement de solutions d’IA danoises.
La Grèce (2024[47]) poursuit actuellement la création d’un Espace de données sur la langue et la culture grecques afin d'intégrer le patrimoine linguistique et culturel du pays à des applications d’IA17. Également en lien avec la langue grecque, le développement des grands modèles de langage (LLM) « Meltemi » et « Llama-Krikri » promet des avancées en ce sens, soulignant l'importance du libre accès et des efforts collaboratifs pour étoffer les ressources linguistiques disponibles.18
L’Inde a de son côté créé la plateforme Bhashini, un grand projet d’infrastructure linguistique basé sur l’IA mené par la National Language Translation Mission (NLTM). Il offre une traduction en temps réel dans 22 langues officielles du pays et des dizaines de dialectes ainsi qu’un soutien pour la mise en place d’assistants vocaux multilingues et d’interfaces de prestation de services d’IA19; Ce projet a pu voir le jour grâce à l'immense mobilisation des citoyens qui a permis de créer des ensembles de données multilingues pour assurer la représentativité des données, et les modèles ainsi que les interfaces de programmation d'applications (API) sont mis à disposition en open source.
En Arabie saoudite, l’Autorité saoudienne chargée des données et de l’intelligence artificielle (SDAIA) a créé ALLaM, un grand modèle de langage mis au point avec 500 milliards de tokens et plus de 300 000 textes arabes, dont des encyclopédies, des documents de recherche scientifique et des travaux d'histoire (M Saiful Bari, 2024[48]). ALLaM a pour ambition de refléter la richesse linguistique et culturelle de la langue arabe.
L'Espagne travaille actuellement sur une famille de modèles d'IA, appelée ALIA, qui sont intensivement entraînés sur des données en espagnol natif et dans d'autres langues officielles, et qui seront disponibles en open source.20 Les premiers cas d'usage comprennent un assistant pour diagnostiquer l'insuffisance cardiaque dans le secteur de la santé publique et un assistant pour faciliter les réponses des agents fiscaux aux citoyens. Des modèles de langage pour les langues américaines autochtones ont également été développés. Bien que ce ne soit pas le fait du secteur public, des chercheurs ont ainsi créé LakotaBERT pour soutenir les efforts de revitalisation du « Lakota, une langue menacée de disparition parlée par le peuple Sioux en Amérique du Nord » (Parankusham, Rizk et Santosh, 2025[49]).
Favoriser une accessibilité et un partage des données efficaces et dignes de confiance
Comme indiqué au chapitre 3, les pays disposent souvent de trop peu de données pertinentes, faciles d'accès et de qualité, pourtant nécessaires pour entraîner efficacement des systèmes d’IA (OCDE, 2025[50]). Pour y remédier, il conviendrait de mener des actions ciblées pour améliorer l'accessibilité des données, par exemple en organisant des collectes de données collaborative et en mettant en place des systèmes de données ouvertes (Encadré 4.4).
Encadré 4.4. En Suède, une collecte de données collaborative pour Svea
Copier le lien de Encadré 4.4. En Suède, une collecte de données collaborative pour SveaSvea est une initiative suédoise coordonnée par AI Sweden qui regroupe des organismes étatiques, des municipalités, des régions et des acteurs du secteur privé pour relever des défis que présente la création de solutions d’IA pour les services publics. Son objectif premier est de mettre en commun des ressources pour réunir des données en langue suédoise adaptées aux besoins spécifiques des administrations, une tâche dont l’ampleur est trop importante pour être menée par une seule organisation.
La collaboration permet aux organismes publics de s’alléger la charge de travail induite par la collecte des données essentielles au développement d’un assistant IA performant. Dans la première phase de l’initiative, les participants ont identifié précisément les besoins et commencé à récupérer des données dans leur entité pour entraîner le système. Dans un second temps, ils auront accès à des bases de données partagées contenant des informations nationales pertinentes pour alimenter leur assistant IA.
Source : (AI Sweden, 2024[51]).
L’ouverture des données publiques constitue également une piste intéressante. Dans l’OCDE, seuls 46 % en moyenne des ensembles de données publiques de forte valeur sont disponibles sous la forme de données ouvertes (2023[52]), contre plus de 80 % en France et en Corée. Les pouvoirs publics restent réticents à soutenir la réutilisation des données ouvertes par d’autres acteurs et l'intégration de ces ensemble de données dans les systèmes d’IA. Les résultats de l’édition 2023 de l’indice des données ouvertes, utiles et réutilisables (OURdata) montrent que les pays font mieux sur le plan de la disponibilité et de l'accessibilité des données que sur celui du soutien des pouvoirs publics à la réutilisation des données (Graphique 4.1).
Graphique 4.1. Indice OURdata (des données ouvertes, utiles et réutilisables) de l’OCDE, 2023
Copier le lien de Graphique 4.1. Indice OURdata (des données ouvertes, utiles et réutilisables) de l’OCDE, 2023L'une des grandes questions qui se pose est la suivante : comment accroître la valeur des données publiques ouvertes pour les systèmes d’IA dès la conception et, partant, leur accessibilité et leur niveau de préparation au regard de l’IA ? D'un côté, la standardisation (notamment de la structure et des formats) des données publiques ouvertes peut réduire le temps que les développeurs d’IA doivent consacrer à la préparation des données pour entraîner les systèmes d’IA. D'un autre côté, certains outils, tels que les API, peuvent également soutenir l'intégration des données dans les systèmes d’IA en offrant une méthode standardisée de partage et d'accès automatiques aux données, directement à partir de la source. Pour l’heure, seuls 47 % des ensemble de données de forte valeur sont accessibles par l’intermédiaire d’API (OCDE, 2023[52]).
Au-delà des donnés ouvertes, on trouve plusieurs initiatives intéressantes, parmi lesquelles l’élargissement de l’accès aux grands ensemble de données détenus par l’administration ou financés par des fonds public, comme la Plateforme de recherche de données d’IA en Corée (2024[53]) qui donne accès à des ensembles de données de texte, d'images, de vidéos, de contenus audios et de capteurs permettant d’entraîner l’IA dans des domaines comme la santé, les transports publics ou encore les catastrophes et la sécurité.
Utilisation de données du secteur privé
De même que les données du secteur public, celles du secteur privé peuvent jouer un rôle majeur dans le développement d'applications d’IA pour l’administration. Alors que les premières fournissent des éclairages essentiels sur la démographie et les services publics, certaines données du secteur privé sur, par exemple, les schémas de mobilité, le comportement des consommateurs et les tendances financières, peuvent venir enrichir ces éclairages. Dans le domaine de l’urbanisme, les systèmes d’IA peuvent ainsi tirer partir des données de télécommunications afin d’analyser les flux de circulation ; dans le domaine de la santé, ils peuvent s’appuyer sur les données anonymisées des patients détenues par des cliniques privées pour améliorer la prédiction des maladies. Combiner ces deux sources de manière responsable et dans le respect des principes éthiques peut améliorer la précision et l’efficacité des applications d’IA, ainsi que leur capacité à répondre aux besoins du public. Les Espaces européens communs des données offrent une illustration de cette mise en commun des données du secteur public et du secteur privé. Les espaces de données ont pour objectif de rendre davantage de données accessibles et réutilisables dans l’Union européenne, dans un environnement fiable et sécurisé, au bénéfice des entreprises et citoyens européens (OCDE, 2024[54] ; CE, 2025[55]).
Créer un environnement propice grâce à la gouvernance des données
Pour rendre les données accessibles, les partager et mettre en place les bases indispensables pour faire de l’IA dans les administrations une réalité, il est crucial de prévoir des mécanismes de gouvernance des données robustes et qui puissent être intégrés à des stratégies et des initiatives d’action publique d’IA plus larges (OCDE, 2024[3]).
La gouvernance des données désigne « divers dispositifs, notamment des mesures d’ordre technique, politique, réglementaire ou institutionnel, qui ont trait aux données et à leur création, leur collecte, leur stockage, leur utilisation, leur protection, leur accessibilité, leur partage et leur suppression, y compris par-delà les domaines d’action et les frontières organisationnelles et nationales » (OCDE, 2022[56]).
Établi à l'origine pour étudier les dispositifs spécifiques favorisant l’accessibilité et le partage des données, le Cadre de l’OCDE pour la gouvernance des données dans le secteur public trouve également à s’appliquer aux données dans le contexte des systèmes d’IA (Graphique 4.2). Les pays peuvent développer dans le secteur public des capacités de gouvernance des données en mettant l’accent sur l’élaboration de stratégies de données exhaustives, en précisant les rôles et responsabilités et en définissant une vision pour la gestion et la gouvernance des données à un niveau plus technique, afin que les avantages et les résultats attendus de l’utilisation de l’IA se concrétisent.
Graphique 4.2. Gouvernance des données dans le secteur public
Copier le lien de Graphique 4.2. Gouvernance des données dans le secteur publicAu Canada, la Stratégie relative aux données de 2023-2026 pour la fonction publique fédérale précise les résultats escomptés et les principes directeurs propres à assurer une gouvernance des données solide à l’échelle de l’ensemble du gouvernement fédéral, ainsi que les attentes en ce qui concerne les rôles et responsabilités21. Il existe d’autres exemples de ce type de démarche, dont la Stratégie nationale en matière de données du Royaume-Uni ou la Stratégie relative aux données et à l’administration numérique de l’Australie22. La Grèce (2024[47]) a également lancé un vaste programme de Gouvernance des données et coordination de la stratégie d’IA pour mettre au point les éléments qui permettront de préparer le secteur public et le secteur privé à l’IA. La directive des États-Unis évoquée à l’Encadré 4.1 prévoit quant à elle diverses obligations visant à améliorer la gouvernance des données. Il importe également de systématiser l’implication des parties prenantes auprès de ceux qui détiennent des droits sur les données tels que les citoyens, les entreprises et les représentants de la société civile, qui pourraient être affectés par l’utilisation de données pour l’IA, soit du fait de droits de propriété intellectuelle, soit du fait de droits sur les données personnelles (OCDE, 2022[58]), ou en raison de l’utilisation potentielle de données insuffisantes ou biaisées.
Les pouvoirs publics devraient se donner les moyens de concrétiser leur vision et leur stratégie de données destinées à l’IA en se dotant des capacités nécessaires à une mise en œuvre cohérente à l’échelle de l’ensemble de l’administration publique, ainsi que de lignes directrices et de cadres juridiques propres à assurer leur efficacité (OCDE, 2020[59]). Ces efforts peuvent porter sur de nombreux domaines tels que l’amélioration des aptitudes et des compétences en matière de données destinées à l’IA, comme le font le Brésil avec son initiative CAPACITA GOV.BR 23 et l’Argentine avec son Programme national visant à renforcer la protection des données personnelles. Il peut également être envisagé de stimuler la coordination et la collaboration institutionnelle, à l’instar du Centre de ressources norvégien pour le partage et lʼutilisation des données (Digdir, 2024[60]). Enfin, il est essentiel de prendre en compte le rôle moteur des cadres juridiques qui orchestrent et accélèrent l’intégration et l’échange de données entre entités publiques tout en protégeant les droits des individus et la confidentialité. Des réglementations claires, actuelles et praticables sur la gouvernance des données et la protection des données personnelles doivent également être mises en place pour déployer des systèmes d’IA dignes de confiance à l’échelle souhaitée. Au Chili, un projet de texte sur la gouvernance des données qui doit définir les principes, les rôles et les mécanismes de coordination entre les institutions dans ce domaine est actuellement en discussion, tandis qu’une loi sur la protection des données personnelles conforme aux normes internationales entrera prochainement en vigueur. Il en existe d’autres exemples, comme la loi sur le partage et la gouvernance des données de l’Irlande et le règlement général sur la protection des données (RGPD), le règlement sur les données, le règlement sur la gouvernance des données, la directive concernant les données ouvertes et le cadre d’interopérabilité européen de l’Union européenne24.
Enfin, le volet pratique de la gouvernance des données correspond à l’ensemble des processus, des dispositifs et des outils qui permettent sa mise en œuvre au niveau de l'organisation et des équipes et assurent l’application et l'intégration de pratiques rigoureuses de gouvernance et de gestion des données tout au long du cycle de valeur des données d’IA (OCDE, 2020[59]). Citons à ce titre l’évaluation de la maturité des opérations de données (DataOps) (2024[61]) mise en place par les États-Unis dans l’ensemble des agences fédérales dans le cadre de son Guide de l’IA à l'intention de l’administration. Ce cadre examine la capacité des entités à réunir des données, à y accéder et à les utiliser pour soutenir le développement de l’IA tout au long du cycle de valeur des données. Il comprend plusieurs éléments clés comme la création d'un catalogue exhaustif des données en tant qu’actifs, des méthodes souples d’accès aux données et des outils favorisant les expérimentations d’IA documentées. Le volet pratique de la gouvernance des données comprend également les compétences techniques et les profils de postes nécessaires, comme des spécialistes du domaine concerné, des scientifiques et ingénieurs des données ou encore des fournisseurs de données qui prennent part à la collecte de données et à leur traitement pour l’IA (OCDE, 2022[58]). Les difficultés liées à l'infrastructure des données sont abordées dans la prochaine section.
Créer une infrastructure numérique
La disponibilité d’infrastructures numériques fiables et évolutives peut aider à soutenir et à dimensionner l’IA dans l’administration. Outre les données elles-mêmes, comme indiqué dans la section précédente, l’infrastructure des données, les plateformes informatiques redimensionnables, les modèles de fondation d’IA et des outils d’IA communs sont des piliers essentiels pour l’IA dans l'administration publique. Il existe également d'autres formes d’infrastructures numériques, qui sont traitées dans le document de l’OCDE (2024[62]). Cette section s’intéresse à celles qui sont les plus pertinentes pour l’IA.
Pour garantir des systèmes d’IA dignes de confiance et redimensionnables, les pouvoirs publics se trouvent confrontés à des dilemmes d'ordre stratégique. Le pays peut choisir de renforcer les capacités nationales nécessaires en développant sa propre infrastructure numérique, ce qui lui permettra de mettre en œuvre ses propres règles de protection des données et de la vie privée. Plusieurs pays cherchent à se doter de telles capacités (Letzing, 2024[63] ; France Élysée, 2025[64] ; Union africaine, 2024[65] ; Ray, 2025[66] ; CE, 2025[67] ; Brizuela et al., 2025[68]). Mais cette démarche peut favoriser la fragmentation technologique et l’émergence d’écosystèmes clos de nature à limiter la collaboration internationale (Komaitis, Ponce de León et Thibaut, 2024[69] ; Frazier, 2025[70]). Les pouvoirs publics doivent donc étudier diverses options pour déterminer, au vu de leur contexte, le point d’équilibre entre le développement de solutions internes et la collaboration avec le secteur privé et avec d’autres pays.
Élément d'intérêt majeur pour les administrations nationales, l'infrastructure numérique peut également avoir des vertus formatrices pour l’adoption de l’IA par les administrations infranationales, les villes par exemple. Le développement d'outils numériques partagés et réutilisables peut aider les pays à supporter les coûts d’entrée en raison d’économies d’échelle sous-jacentes et permettre d’adapter les solutions d’IA aux besoins et aux contextes locaux.
Puissance de calcul et infrastructure des données
L’accès à des ressources et infrastructures de calcul peut être déterminant pour l’efficacité du développement et de l’utilisation de l’IA dans l’administration (OCDE, 2022[71]). Le choix du déploiement de l’IA sur site ou dans le nuage dépend des besoins spécifiques, des choix politiques, des contraintes réglementaires et budgétaires et des objectifs à long terme.
Les solutions sur site offrent davantage de possibilités de contrôle, de personnalisation et de sécurité, ce qui en fait une bonne option pour les applications très sensibles et soumises à des réglementations de localisation des données (Redapt, 2023[72]). Les solutions basées sur le nuage offrent quant à elles des possibilités de mise à l’échelle incomparables, un rapport coût-efficacité intéressant et un accès à des technologies d’IA de pointe, ce qui les destine tout particulièrement aux projets dynamiques et très évolutifs ; elles sont également plus pratiques que les solutions sur site pour les petits projets, de même que pour les nouveaux venus ou les petits développeurs d’IA (Dombo, 2023[73]). Plus de la moitié des pays de l’OCDE ont mis en place des initiatives de technologie dans le nuage, notamment des capacités de stockage et de calcul (infrastructure en tant que service ou IaaS). L’accès aux technologies dans le nuage repose sur des solutions publiques ou privées (48 % et 52 % respectivement), et plusieurs pays cherchent à mettre en place des technologies de ce type dirigées par le secteur public (OCDE, 2024[74]). Dans de nombreuses hypothèses, une approche hybride associant des infrastructures (sur site ou autre) et des ressources de nuage publique (partagées, tierces) — dite « nuage hybride » — peut constituer une solution équilibrée et tirer parti des avantages des deux configurations. L’étude menée par RAND (2024[24] ; 2025[25]) a notamment constaté que de manière générale, les entreprises qui pouvaient utiliser des solutions dans le nuage n’avaient aucun mal à obtenir la puissance de calcul requise, tandis que celles qui ne pouvaient pas transférer des données dans le nuage rencontraient d'importantes difficultés qui contribuaient à l’échec du projet.
Au niveau mondial, la demande de capacité de centres de donnés prêts pour l’IA pourrait tripler d'ici à 2030 en raison d'une utilisation de l’IA en forte hausse (McKinsey, 2024[75]). Les émissions de carbone produites par les centres de données et les réseaux de transmission des données représenteraient déjà 1 % du total des émissions liées à l’énergie ; toutefois, elles progressent relativement peu malgré la hausse rapide de la demande de services numériques, notamment parce que les logiciels et les modèles ont gagné en efficience au fil du temps (OCDE, 2022[71] ; AIE, 2023[76]). Une analyse récente de l’Agence internationale de l’énergie (AIE) (2025[77]) a pu constater que les centre de données figuraient parmi les sources d’émissions qui augmentaient le plus rapidement et que ces émissions pourraient encore beaucoup augmenter au cours des dix prochaines années ; mais l’AIE relève également que « l’adoption généralisée d’applications d’IA existantes pourrait conduire à une réduction des émissions qui sera très supérieure aux émissions produites par les centre de données ». Quoi qu'il en soit, les importantes émissions de carbone liées aux données mettent en lumière la nécessité d’adopter des bonnes pratiques pour gérer les besoins en énergie de l’IA. Les quantités d’eau nécessaires pour refroidir les centre de données doivent également être prises en compte (Metz et al., 2025[78]). Récemment, des travaux de recherche et des évolutions constatées dans l'industrie semblent indiquer une tendance croissante à l’adoption de modèles plus petits et/ou plus spécialisés, à l'image des petits modèles de langage (SLM) qui sont à la fois moins gourmands en ressources et en données et moins onéreux (Hassani et al., 2022[79] ; Jones, 2025[80]).
Encadré 4.5. Les centres de données partagés et le nuage gouvernemental de la Corée
Copier le lien de Encadré 4.5. Les centres de données partagés et le nuage gouvernemental de la CoréeLe Service national de ressources informationnelles (NIRS) de la Corée travaille avec le ministère de l'Intérieur et de la Sécurité à la mise à niveau d’équipements, de réseaux et d'outils de gestion essentiels afin de moderniser les technologies de la Corée et de permettre la migration vers le nuage. L’une des grandes étapes de ce projet a consisté à bâtir de nouveaux centres de données gouvernementaux, ce qui contribue à assurer la conformité avec la réglementation nationale, à limiter les coûts et l’empreinte technologique, à créer des emplois et à réaliser des investissements locaux dans les domaines cibles. Ces centres de données ont également été mis à la disposition des principaux partenaires privés du gouvernement, garantissant ainsi que les entreprises qui détiennent ou traitent des données sensibles le font dans un environnement conforme aux exigences de sécurité, de sauvegarde et de redondance fixées par les pouvoirs publics, notamment. Des mesures en matière de développement durable et d’énergies renouvelables ont également été prises, de sorte que les centres de données de la Corée contribuent à réduire l'impact environnemental de l’administration numérique du pays alors qu’il se prépare à recourir de plus en plus aux solutions d’IA.
Source : OCDE, Examen de l’administration numérique de la Corée (à paraître).
Dans une volonté de démarche holistique, certains pays mettent en place des infrastructures de calcul et de données dans le cadre d’efforts plus larges, par exemple des approches d'infrastructure publique numérique (IPN)25, en vue de favoriser des échanges de données sécurisés et constructifs entre administrations, soutenus par une intégration des données et des capacités d’analyse solides. Ces infrastructures aident à bien dimensionner l’utilisation de l’IA tout en favorisant la collaboration entre institutions et la création de valeur pour le public à partir des données. Prenons par exemple l’Infrastructure nationale de données (IND) du Brésil.26 Cette initiative stratégique comprend un ensemble de politiques, de normes, de technologies et de mécanismes de gouvernance visant à organiser, à partager et à gérer les données du secteur public de manière sûre et efficace. Son principal objectif est de rendre les données de l’administration faciles à trouver, accessibles, interopérables et réutilisables (principes FAIR), ce qui favorise la transparence, l'amélioration des services publics, l’efficience administrative et la prise de décision fondée sur des données probantes dans l’ensemble des administrations, et sert de base à la transformation numérique et l’innovation. Une plateforme, gov.br, centralise l’accès à près de 5 000 services publics numériques et inclut une plateforme, Conecta gov.br, qui assure l'interopérabilité des données entre les administrations. Ces plateformes et autres infrastructures numériques sont les piliers de l’IA dans l’administration. Autre exemple : la plateforme dans le nuage de l’Arabie saoudite, baptisée Deem Cloud, qui a été développée par l’Autorité saoudienne chargée des données et de l’intelligence artificielle (SDAIA) et consolide l'infrastructure numérique entre plus de 190 entités publiques et de 260 centres de données (SDAIA, 2025[81]). Elle intègre une suite de services dans le nuage visant à assurer des opérations numériques sûres et efficaces, et a contribué à des économies d’énergie et de coûts dans le cadre d’efforts plus larges de modernisation des infrastructures du secteur public et de mise en œuvre des stratégies numériques nationales. Davantage axée sur le calcul, la Grèce (2025[82]) s’est attelée à la création de DAEDALUS, qui a vocation à devenir l’un des plus puissants supercalculateurs d’Europe et sera accessible aux institutions publiques.
Développer des modèles de fondation d’IA
Les modèles de fondation sont des modèles d’IA entraînés sur de grandes quantités de données, en général par auto-supervision à grande échelle, et qui peuvent être adaptés à un large éventail de tâches en aval (OCDE, 2024[83]). Les pouvoirs publics peuvent développer leurs propres modèles de fondation ou s’appuyer sur des modèles existants pour concevoir des approches sur mesure, adaptées au contexte spécifique du pays et/ou de sa population. Les modèles de fondation peuvent être « affinés » grâce à un entraînement supplémentaire sur des ensemble de données plus petits et portant sur une tâche ou un domaine particuliers, l'objectif étant alors d'accroître leur performance pour ce contexte spécifique (Montgomery, Rossi et New, 2023[84]).
Bâtir un modèle de fondation en partant de zéro est réputé onéreux et requiert généralement de vastes quantités de données et d'importantes ressources en énergie. Plusieurs modèles de fondation ont été développés en propre par le secteur privé, à l'image de Mistral Large et des modèles qui alimentent Claude d’Anthropic (par ex. Claude 3.7 Sonnet), Gemini de Google (par ex. Gemini Ultra) et ChatGPT d’OpenAI (par ex. GPT-5).
Malgré leur coût et les quantités de données et d’énergie nécessaires, les pouvoirs publics parviennent à créer et entraîner leurs propres modèles de fondation, comme l’explique le chapitre 3. Ils peuvent également affiner et adapter un modèle de fondation fourni par une autre entité afin qu’il réponde au mieux à leurs exigences propres et ainsi limiter les moyens financiers et le temps consacrés au déploiement de l’IA pour des tâches particulières. L’assistant virtuel basé sur ChatGPT mis en place par le Portugal pour ses services publics fournit une illustration de cette approche (encadré 5.46).
Les administrations peuvent également utiliser des modèle pré-entraînés disponibles en open source. Il s’agit de modèles de fondation qui ont été entraînés par une entreprise ou par une autre organisation, laquelle a mis « l’architecture et les pondérations de son modèle à la libre disposition du public afin que chacun puisse les modifier, les étudier, les perfectionner et les utiliser » (Seger et al., 2024[85])27. La plupart des modèles mis à disposition en open source ont été créés par de grandes entreprises technologiques, comme la série Llama de Meta, mais certains sont le fruit d'un développement plus collaboratif et communautaire, par exemple BigScience Large Open-science Open-access Multilingual Language Model (BLOOM)28. Le projet Albert, l’assistant virtuel de la France à l'intention des fonctionnaires (Encadré 5.46) offre un exemple de système d’IA conçu par un gouvernement à partir de modèles à code libre.
Un modèle de fondation qui a été adapté à un contexte national et gouvernemental, par exemple en affinant un modèle détenu et fourni par une autre entité ou en personnalisant un modèle en accès libre peut considérablement réduire le coût de l’adoption de l’IA pour les équipes qui entendent la déployer. Mais le développement et l’utilisation de modèles de fondation extérieurs comporte des risques que les pouvoirs publics devraient garder à l’esprit, comme le montre le chapitre 1.
Les pays se montrent de plus en plus enclins à investir dans des modèles de fondation nationaux ou régionaux afin d'accroître leur souveraineté technologique et de mieux prendre en compte leurs langues et leurs cultures. Ainsi, le Chili a lancé le développement de Latam-GPT par plus de 30 institutions d’Amérique afin de créer un modèle entraîné sur des données régionales (Gob.cl, 2025[86]) ; de même, l’initiative, OpenEuroLLM, financée par l’UE, vise à créer des modèles en open source couvrant toutes les langues officielles d’Europe (CE, 2025[87]), et des modèles tenant compte du contexte et des langues commencent à émerger en Asie du Sud-Est (Noor et Kanitroj, 2025[88]). Enfin, le projet Minerva de l’Italie a mis au point le premier LLM entraîné dès le départ pour la langue italienne et constitue l'un des rares exemples dans ce contexte de modèles de fondation personnalisés et développés de A à Z (Université de Rome « La Sapienza », 2024[89]).
Outils d’IA communs
Des outils d’IA qui peuvent être mis en commun dans l’ensemble des administrations et adaptés à leurs besoins spécifiques peuvent faire office d’IPN pour mettre en place et améliorer d’autres services. Tantôt conçus avec des modèles de fondation, tantôt fournis sous la forme d'un autre type d’IPN, ces outils créent une couche de services partagée, soutiennent l’automatisation des tâches courantes et améliorent les interactions avec l’utilisateur ainsi que la prestation des services.
Des robots conversationnels peuvent ainsi traiter un vaste volume de questions des citoyens et répondre instantanément aux plus courantes, tandis que les ressources humaines se consacrent à des missions plus complexes. L’efficacité s’en trouve améliorée, et les services publics sont plus accessibles et plus réactifs aux besoins des usagers. Pour faire réellement office d’IPN, ces outils doivent répondre à des besoins courants, basiques, et donc pouvoir être utilisés dans un large éventail d'entités du secteur public. Le Virtual Intelligent Chat Assistant (VICA), un service partagé et utilisé par plus de 60 organismes publics de Singapour qui a permis de créer une centaine de robots conversationnels, fournit une illustration de cette démarche29.
Les outils communs utilisés aux fins de l’IA ne reposent pas toujours sur l’IA. En voici quelques exemples :
Singapour a mis au point Whole of Government Application Analytics (WOGAA), un outil gouvernemental de suivi des performances des sites Internet et services numériques de l’administration, dont ceux qui sont assistés par l’IA, qui propose un tableau de bord central avec des données sur le trafic Internet des sites, des rapports automatisés contenant des indicateurs clés et des éléments de comparaison des performances avec d’autres sites Internet de l’administration, entre autres informations.
En Estonie, dans un effort de mise en œuvre du principe « une fois seulement », toutes les bases de données publiques sont obligatoirement décrites dans le catalogue d’interopérabilité des ressources (RIHA), qui fait office de registre national des systèmes, composants, services, modèles de données ou encore actifs sémantiques et garantit une gestion transparente, équilibrée et efficace des systèmes d’information publique.
ALLiaNCE, l'incubateur de projets d’IA de la France évoqué plus tôt dans ce rapport, favorise le développement de produits d’IA réutilisables dans différentes administrations et entend mutualiser les efforts et éviter les doublons. ALLiaNCE fournit une offre de services multi-couches, parmi lesquels des outils alimentés par l’IA qui sont intégrés à La Suite Numérique, avec une couche d'infrastructure, Albert API, qui appuie la réutilisation des systèmes d’IA générative dans de nombreux secteurs. Conçu en tant qu’outil numérique commun, Albert API fournit des systèmes d’IA générative ouverts et réutilisables, ce qui abaisse le seuil d'adoption pour les institutions publiques et contribue à une IPN nationale pour l’IA. L'incubateur ALLiaNCE met en outre l’accent sur la souveraineté des données et sur des solutions numériques ouvertes et souveraines, ce qui atteste des efforts du gouvernement pour atténuer les risques de dépendance et promouvoir la confiance dans les systèmes d’IA.
OECD.AI, le catalogue d’outils et d’indicateurs pour une IA digne de confiance de l’OCDE, répertorie un ensemble d'outils issus ou non du secteur public qui peuvent aider les administrations à déterminer leurs besoins propres30.
Promouvoir les compétences et les talents
Comme l’indique le chapitre 3, le manque de compétences est l’un des principaux obstacles à l’adoption d’une IA digne de confiance dans l'administration publique. Les pays devraient donc prendre des mesures adaptées pour renforcer leurs compétences et leurs capacités internes.
Ils devraient équiper leurs fonctionnaires des compétences nécessaires pour optimiser l’efficacité de l’IA tout en garantissant son utilisation sûre, sécurisée et fiable. Préparer le service public à l’IA est indispensable à la fois pour le développement, pour le déploiement et pour l'utilisation efficace des outils basés sur l’IA, dans l’objectif d’améliorer l’exécution des tâches courantes et l’élaboration des politiques publiques. Une approche stratégique et coordonnée des compétences et des talents de l’IA peut permettre de cibler différents groupes au sein du personnel, d'identifier les compétences manquantes et de s’en doter, et d’attirer et de retenir les spécialistes de l’IA. La constitution de compétences solides en interne participe en outre au renforcement des capacités nationales, un thème qui est abordé dans la section précédente.
Cela peut passer par le recrutement d’agents dotés des compétences nécessaires pour travailler avec l’IA et par l’acquisition de nouvelles compétences par les agents en poste. Les pays doivent en outre faire preuve d’anticipation sachant qu'à mesure que l’IA évoluera, les compétences nécessaires évolueront également, ce qui impose un apprentissage permanent. Pour une approche solide, il faut en outre évaluer les besoins afin de cartographier les compétences correspondantes en matière de données et d’IA des agents en poste et leur niveau et d’identifier les principales lacunes pour éclairer la stratégie qui permettra de répondre à ces besoins. Les décisions de recrutement, de rétention et de développement de spécialistes du numérique doivent être la conséquence d'une réflexion approfondie. Les éclairages fournis peuvent également aider à concevoir des programmes de formation sur mesure pour se doter des compétences manquantes ainsi qu’un plan de gestion et de formation (en vue de l’acquisition et du renforcement des compétences ou de reconversions) pour les postes les plus touchés par l'intégration de l’IA.
Évaluer les besoins de différents groupes d’utilisateurs
Pour adopter et utiliser l’IA de manière efficace, les institutions publiques devraient évaluer les besoins de différents groupes d’utilisateurs. Parmi le personnel qui se doit d’être préparé à l’IA figurent les utilisateurs généraux des systèmes d’IA, les équipes dirigeantes de l'institution, les spécialistes des données et du numérique, et certains postes plus spécialisés. Comme l’illustre le Graphique 4.3, les groupes d'utilisateur deviennent plus étroits et plus spécialisés à mesure que l'on descend dans la pyramique
Graphique 4.3. Réfléchir au niveau d'aptitudes nécessaires en matière d’IA en fonction du groupe d’utilisateurs parmi le personnel
Copier le lien de Graphique 4.3. Réfléchir au niveau d'aptitudes nécessaires en matière d’IA en fonction du groupe d’utilisateurs parmi le personnel
Les agents exerçant des fonctions générales, non spécialisées, ont un rôle majeur à jouer dans l’adoption et l’utilisation efficace de l’IA. Leur formation devrait se concentrer sur les connaissances de base en matière de technologies d’IA et de données, leur utilisation au regard des tâches confiées et des considérations d’ordre juridique et éthique
Les équipes dirigeantes participent à part entière à l’adoption de l’IA et se trouvent à la jonction entre la technologie et les missions qui incombent au gouvernement. Ils doivent contribuer à sensibiliser les utilisateurs, donner l’élan pour l’adoption de l’IA et appuyer les possibilités de formation et de développement dans l’administration publique. Ce groupe d'utilisateurs doit disposer d'une vision stratégique et d'une compréhension de niveau exécutif de ce que les technologies d’IA peuvent faire, de leur impact et de la façon dont les risques, les questions de conformité et de financement et le personnel doivent être gérés.
Les professionnels des données et du numérique ont pour rôle de piloter et de faciliter la conception, le développement et la mise en œuvre de services spécifiques Ce groupe d'utilisateurs doit disposer d'un excellent niveau de connaissances sur l’IA pour comprendre la façon dont elle doit être déployée afin de parvenir aux objectifs fixés pour les services dont ils ont la charge. Épaulé par les spécialistes, ce groupe d'utilisateurs peut intervenir dans les achats d’IA par le biais des processus de passation des marchés publics. Disposer de certaines compétences et aptitudes leur permettra de peser dans les négociations avec les fournisseurs qui cherchent à vendre leurs produits et services d’IA.
Bien qu'ils soient moins représentés dans le personnel, les spécialistes de l’IA sont essentiels pour le développement, le déploiement, la gestion et l’utilisation des systèmes d’IA. Loin de se cantonner au développement direct de l’IA, ils interviennent également dans les achats, dans le domaine juridique et dans la gestion de projets. Pour constituer ce groupe d’utilisateurs, les administrations doivent mettre l'accent sur leur attractivité, sur la rétention des talents, sur la formation et sur le développement des compétences. Enfin, pour parer aux éventuelles pénuries de compétences sur le marché, les organismes publics peuvent également envisager de recourir à des capacités externes par le biais de la passation des marchés publics et de l’établissement de partenariats, thèmes qui sont abordés ci-dessous.
Préparer les utilisateurs de la fonction publique
Préparer la fonction publique à l’IA requiert un ensemble de compétences numériques de base et de compétences plus spécialisées dans les données et l’IA. Le Cadre de l’Ocde sur les talents et les compétences numériques dans le secteur public (OCDE, 2021[7]) présente les diverses compétences numériques de base que tout agent de la fonction publique doit posséder pour soutenir la transformation numérique :
compréhension du potentiel de la transformation numérique
compréhension des utilisateurs et de leurs besoins
collaboration et ouverture pour une livraison itérative
utilisation digne de confiance des données et des technologies
compétences favorisant un secteur public fondé sur des données
compétences socio-émotionnelles favorables à l’administration numérique
compétences de leadership spécifiques à l’administration numérique.
Pour disposer d’un personnel prêt pour l’IA, il est nécessaire de s’appuyer sur ce socle afin de créer les compétences nécessaires pour que les « personnes puissent évaluer les technologies d’IA en faisant preuve d’esprit critique, communiquer et collaborer efficacement avec l’IA, et utiliser l’IA comme outil en ligne, à domicile et sur le lieu de travail » (Long et Magerko, 2020[90]). Cela implique d’avoir une bonne compréhension des systèmes d’IA, du traitement et de la gestion des données, et de différentes considérations d'ordre éthique. Le Cadre de compétences pour l’IA en entreprise élaboré par l’Alan Turing Institute au Royaume-Uni (2023[91]) correspond à ce type d’approche. Il distingue cinq dimensions :
Confidentialité et intendance : atténuer les risques en matière de sécurité et de protection des données, notamment au regard des considérations d’ordre juridique, réglementaire et éthique.
Spécification, acquisition, ingénierie, architecture, conservation et curation : assurer le traitement et la gestion des données de manière à permettre une utilisation plus efficace et plus éthique des systèmes d’IA.
Définition du problème et communication : identifier et définir les « problèmes » qui tireront le mieux parti de l’application des solutions d’IA et communiquer sur ce point.
Résolution, analyse, modélisation et visualisation des problèmes : pouvoir appliquer un ensemble d'outils et de méthodes pour analyser un problème et présenter des solutions à l'aide de l’IA.
Évaluation et réflexion : comprendre ce que cela implique de travailler sur l’IA, évaluer l’efficacité et l’efficience de projets d’IA et identifier les pistes d’amélioration.
Le niveau de compétences et la mesure dans laquelle elles sont nécessaires dépend du groupe d'utilisateurs, des capacités existantes et du niveau requis pour le poste. Toutefois, cette combinaison de compétences de base dans le numérique et l’IA doit aboutir à une utilisation plus efficace de l’IA dans l’administration.
Développer les compétences et les talents
Pour développer les compétences et les talents dans les services publics, les pays devraient envisager d'agir sur deux fronts : appliquer des méthodes de développement interne, et recruter plus largement des talents essentiels. Les points ci-dessous présentent certains des principaux mécanismes qui permettent le développement des talents existants, et des exemples supplémentaires sont proposés par la (2024[29]) Boîte à outils du G7 pour l’IA dans le secteur public élaborée par l’OCDE et l’UNESCO.
Les cadres de compétences répertorient les principales compétences et les différents parcours d’apprentissage disponibles pour le personnel, qui doivent être définis en fonction des résultats de l’évaluation des besoins et des groupes d'utilisateurs présentés ci-dessus. Ils peuvent également contribuer à la professionnalisation des postes clés liés à l’IA dans l’administration. Le Centre commun de recherche (CCR) de la Commission européenne a par exemple mis au point un cadre de compétences complet (Encadré 4.6). L'Inde a également élaboré un cadre de compétences pour préparer ses cadres de la fonction publique à mener la transition vers l’IA de manière responsable et adapté son contenu aux différents types de fonctions de ces cadres31.
L’apprentissage formel peut comprendre des cours, des ateliers et des modules en ligne. L'Irlande propose plusieurs formations pertinentes, notamment sur l'IA dans la fonction publique et sur les lignes directrices nationales pour une utilisation responsable dans ce contexte. Le ministère grec des Affaires intérieures a, quant à lui, créé en collaboration avec Google des cours de formation à l’IA pour ses fonctionnaires32. Enfin, le cycle de formation Elements of Ai, accessible en ligne gratuitement et dans le monde entier, permet tant aux agents de la fonction publique qu’aux citoyens d’approfondir leurs connaissances sur l’IA33.
L’apprentissage informel via, par exemple, des communautés de pratique, des programmes de tutorat ou des rotations de postes, peut favoriser la sensibilisation à l’IA et son adoption. Ces approches sont examinées plus en détail ci-dessous.
Encadré 4.6. Le cadre de compétences pour l’IA dans l’administration publique de l’Union européenne
Copier le lien de Encadré 4.6. Le cadre de compétences pour l’IA dans l’administration publique de l’Union européenneL’UE a mis au point un cadre de compétences complet pour aider les fonctionnaires à adopter et à gérer l’IA. Élaboré par le Centre commun de recherche (CCR) de la Commission européenne, il s’appuie sur des travaux de recherche empirique, une analyse de la littérature, des ateliers de spécialistes et des études de cas et identifie les compétences clés nécessaires à l'intégration de l’IA dans l’administration publique.
Ce cadre identifie trois grandes catégories de compétences :
Les compétences technologiques : il s’agit des connaissances et des compétences liées à la gestion des données, à l’apprentissage automatique (machine learning) et à la mise en œuvre des systèmes d’IA.
Les compétences managériales : ces compétences ont trait à l’appropriation des projets par les gestionnaires, au courtage de connaissances et à la prise de décision dans les initiatives liées à l’IA.
Les compétences politiques, juridiques et éthiques : elles couvrent les compétences liées aux achats d’IA, à la réalisation d’audits et à la collaboration avec des spécialistes du domaine et visent à assurer la conformité avec la réglementation et le respect des principes éthiques.
Les compétences sont en outre réparties dans trois sous-groupes transversaux (i) les compétences comportementales (savoir-pourquoi), qui sont liées aux mentalités et dispositions qui soutiennent l’adoption de l’IA, comme la curiosité technologique et une culture axée sur les données ; (ii) les compétences opérationnelles (savoir-comment), qui englobent les compétences pratiques de mise en œuvre de l’IA, comme la capacité à gérer les bases de données, à entraîner les algorithmes et à prendre des décisions ; et (iii) les compétences de littéracie (savoir-quoi), liées aux connaissance factuelles sur les concepts de l’IA, les cadres juridiques et les fondamentaux de l’apprentissage automatique.
Le CCR formule en outre trois grandes recommandations sur les compétences :
1. développer des programmes de formation ciblés et interdisciplinaires pour l’acquisition des compétences d’IA
2. soutenir la recherche interdisciplinaire appliquée sur les compétences d’IA
3. établir des procédures de recrutement dédiées et allouer des ressources supplémentaires à l'attraction de spécialistes dotés de compétences en matière d’IA.
Le développement en interne de compétences liées à l’IA devrait être complété par des stratégies externes afin d’attirer les meilleurs talents et de retenir les fonctionnaires dotés des compétences recherchées. Le cadre de compétences pour l’IA dans l’administration publique de l’Union européenne souligne la nécessité d’adopter une approche structurée du développement des compétences d’IA intégrant les trois catégories de compétences : technologiques, managériales et politiques, juridiques et éthiques. La Stratégie en matière de talents numériques du Canada applique ces différents principes en reconnaissant que l’adoption de l’IA dans le secteur public requiert un équilibre entre les compétences comportementales (savoir-pourquoi), opérationnelles (savoir-comment) et de littéracie (savoir-quoi) pour disposer d’un personnel prêt pour l’IA34.
Pour remédier aux déficits de compétences critiques, des efforts de recrutement ciblés et des procédures d’embauche dédiées sont essentiels. Le document Lignes directrices du recrutement fondé sur les aptitudes et Modèle de compétences pour l’IA élaboré par le Bureau de gestion du personnel de l'Administration fédérale des États-Unis (US Office of Personnel Management) présente une approche structurée de la définition et de l’évaluation de la classification des emplois liés à l’IA 35, tandis que le cadre de l’UE souligne l'importance des programmes de formation interdisciplinaires et de la recherche appliquée. Pour attirer et retenir les talents spécialisés dans l’IA, les pays devraient également mettre l’accent sur la compétitivité de la rémunération, la clarté des parcours professionnels et la flexibilité des conditions de travail.
Lorsque les capacités internes sont limitées, des partenariats avec des acteurs du secteur privé et des établissements d’enseignement supérieur et l’achat stratégique de compétences externes peuvent procurer le soutien nécessaire. Les sections ci-après sur les marchés publics et les partenariats en matière d’IA présentent ces stratégies plus en détail, accompagnées d’exemples de politiques publiques. Par ailleurs, il est essentiel d’évaluer en continu l’adéquation du personnel, les progrès accomplis pour combler les déficits de compétences dans l’IA et l’efficacité des efforts de formation. Les pays doivent intégrer les enseignements sur les compétences tirés des bonnes pratiques internationales afin d’assurer que l’évolution de leur personnel du domaine numérique suive celle des avancées technologiques, des principes éthiques et des exigences fluctuantes du marché du travail.
Faciliter les rapprochements et l’échange de connaissances
Les communautés de pratique et les réseaux favorisent la collaboration, l’apprentissage, le partage de compétences avec l’extérieur et l’identification de problèmes communs ou fréquents. Ils peuvent également constituer un canal intéressant pour solliciter l’avis des utilisateurs sur les systèmes et les services d’IA internes. Le Cadre de compétences du CCR de la Commission européenne (Encadré 4.6) relève qu’ils peuvent se révéler essentiels en ce qu’ils permettent aux agents de la fonction publique d’acquérir les compétences nécessaires, notamment, pour surmonter les difficultés rencontrées aux premiers stades de l’adoption de l’IA. Ce cadre présente trois leviers d'action pour constituer des communautés de pratique : 1) s’associer avec des parties prenantes pertinentes ; 2) déployer des plateformes numériques pour que les entités participantes puissent communiquer et collaborer ; et 3) financer des subventions destinées à favoriser la création de synergies par la collaboration et le partage de connaissances entre le secteur public et le secteur privé, ce qui peut contribuer à réduire les asymétries de connaissances et à stimuler la création de coentreprises.
La diffusion par ce biais des méthodes, des stratégies et des cas d’usage qui ont fait leurs preuves peut également aider les entités publiques à reproduire et à dimensionner des projets d’IA avec davantage d’efficacité (OCDe/UNESCO, 2024[29]). Ce type d'approche permet d’éviter les erreurs courantes, contribue à assurer la cohérence et accélère l'adoption des technologies d’IA dans les différentes entités publiques. Par exemple :
Le programme de développement des compétences mis en place par l’Estonie comprend un réseau de spécialistes des données comptant plus de 500 participants, des rencontres autour de l’IA et des événements axés sur l’expérimentation (des hackathons et des concours, par exemple) (OCDe/UNESCO, 2024[29]).
Au Chili, le Réseau des innovateurs publics met en relation plus de 30 000 agents de la fonction publique de tous les niveaux de l’administration et d'autres acteurs pertinents pour promouvoir l’apprentissage, la création et l’expérimentation collectifs, y compris dans le domaine de l’IA36.
La Conférence sur les données du Canada est la principale rencontre entre les fonctionnaires et les leaders du domaine des données. En plus de favoriser la sensibilisation aux données et l’échange de connaissances, elle permet de présenter de nouvelles applications en matière de données mises en œuvre dans l’ensemble des administrations du Canada. Par ailleurs, des groupes de travail dirigés par un ministère sur des thèmes liés à l’IA permettent aux agents de la fonction publique de différents ministères d’échanger sur leur expérience et de partager des éclairages, ce qui stimule la collaboration et l’innovation dans la mise en œuvre de l’IA (OCDe/UNESCO, 2024[29]).
Le réseau international Smart Cities dirigé par l’Allemagne promeut les échanges internationaux et le transfert de connaissances aux niveaux national et local en offrant une enceinte de dialogue international et de partage d'idées et de bonnes pratiques37.
La France a de son côté créé ALLiaNCE et la Communauté des labos, des groupes interministériels informels de partage des bonnes pratiques dans le domaine de l’IA38.
En Suisse, le Réseau de compétences en intelligence artificielle a favorisé la création de communautés de pratique pour analyser les problématiques communes soulevées par la mise en œuvre des systèmes d’IA, y compris dans l’administration fédérale39.
Ces communautés et ces réseaux n'ont pas à être spécifiquement axés sur l’IA ; de fait, les groupes plus généraux peuvent favoriser l’émergence d’une base plus large de questions pertinentes et permettre de réfléchir à différentes approches. Toutefois, les pays pourraient vouloir constituer des communautés ou des réseaux supplémentaires axés sur l’IA ou s’assurer que les communautés et réseaux à visée générale comprennent des personnes disposant de compétences dans le domaine de l’IA afin de contribuer à l’identification de liens entre différents problèmes et d’approches d’IA susceptibles d’y apporter une solution.
Mettre en commun des ensembles de compétences et des perspectives pluridisciplinaires
Les compétences numériques et dans l’IA ne sont pas les seules nécessaires pour concevoir et utiliser l’IA dans les administrations. Certains pays se sont efforcés de constituer une ou plusieurs équipes pluridisciplinaires pour que les initiatives d’IA bénéficient de points de vue et de compétences variés. Au vu de la sensibilité et de la complexité des questions liées à l’IA, il est nécessaire de faire intervenir des spécialistes de nombreuses disciplines comme les technologies, l’éthique, le droit ou les politiques publiques pour concevoir une approche stratégique de l’utilisation de l’IA. En apportant des points de vue et des compétences variés, ce type d’équipes peut faciliter l’identification des risques potentiels et assurer une utilisation complète et inclusive de l’IA dans l’ensemble de l’administration (Berryhill et al., 2019[4]).
Réaliser des investissements ciblés
Les pouvoirs publics investissent de plus en plus dans l’IA en finançant des initiatives dédiées. Selon les estimations, les dépenses annuelles du secteur public dans les technologies liées à l’IA devraient augmenter de 19 % en 2025, et continuer d’augmenter par la suite (Gartner, 2024[92]). Les pays se doivent de procéder à une planification stratégique, de mettre en œuvre et de suivre les investissements publics dans l’IA pour assurer leur rentabilité ainsi que pour identifier et atténuer leurs risques éventuels, de mettre en œuvre et de déployer les technologies en temps opportun et de vérifier que les bénéfices attendus se sont effectivement concrétisés (OCDE, 2025[93]).
L’édition 2023 de l’indice de l’administration numérique de l’OCDE (Digital Government Index, ou DGI) (2024[74]) montre que de nombreux pays ne sont toujours pas dotés de capacités robustes de gestion des investissements numériques dans le secteur public. Alors que 88 % des pays de l’OCDE ont mis en place une approche méthodique pour élaborer les propositions de valeur, seuls 41 % disposent d’un mécanisme d’évaluation des risques des investissements destinés à l'administration numérique, notamment des risques opérationnels (liés à la cybersécurité, à la perturbation de l’accès au service ou à l’utilisation de technologies héritées du passé) et des risques financiers (incertitude quant au rendement, durabilité du financement ou risques généraux ou de maintenance). Pour favoriser les investissements dans une IA digne de confiance pour l’administration, les pays pourraient mettre en place des dispositifs de garantie et notamment :
renforcer la planification stratégique
assurer la cohérence des investissements dans l’ensemble de l’administration
renforcer les mécanismes de suivi des investissements.
Une coordination à l’échelle de l’ensemble de l’administration dans ces trois domaines permettra aux pays d'investir dans des systèmes d’IA capables de réaliser les objectifs de politiques publiques des pays dans le respect des délais et des budgets. Les sous-sections ci-après présentent ces différents domaines.
Renforcer la planification stratégique en vue d’assurer la cohérence des investissements
Les pays devraient se coordonner avec les principales parties prenantes pour planifier et gérer les investissements dans l’IA en fonction de principes clairement définis. La définition de ces principes peut garantir que les décisions d’investissement concordent avec les objectifs stratégiques supérieurs. Par exemple, la formulation d'un engagement à développer des services plus anticipatifs pourrait accroître le soutien financier et l’appui des équipes dirigeantes en faveur de la mise en œuvre de robots conversationnels basés sur l’IA dans les relations entre l’administration et les usagers. En outre, la coordination entre les autorités chargées du budget, de l’administration numérique et des marchés publics peut permettre d’identifier les besoins en IA et de les faire concorder avec les ressources disponibles, les achats possibles auprès du secteur privé et les partenariats public-privé. L’Allemagne mène des efforts en ce sens ainsi qu’en témoignent son énoncé de mission en matière d’IA de 2024 et son nouveau Centre de conseil sur l’IA dans l’administration, un organisme chargé de lancer et de coordonner les investissements dans l’IA et de prodiguer des conseils au sein de l’administration fédérale (OCDE, 2024[94]).40
Les pays peuvent également utiliser des outils de gestion existants tels que les mécanismes d’évaluation des propositions de valeur et des risques d’investissement pour renforcer les garanties et assurer la cohérence des décisions d’investissement dans les systèmes d’IA. En adaptant les mécanismes de proposition de valeur aux spécificités des systèmes d’IA, les pouvoirs publics peuvent renforcer les processus garantissant le développement et l’utilisation d’une IA digne de confiance. Cela implique d’évaluer certains aspects critiques de l’IA tels que la conformité aux réglementations et aux principes de politique publique. La proposition de valeur peut comprendre une évaluation des risques et des impacts afin de mesurer et d’évaluer les bénéfices et les risques potentiels des systèmes d’IA dans l’administration, ainsi que des mesures qui permettront de se conformer aux réglementations. L’Australie a publié un Cadre pilote de garanties en matière d’IA pour aider le secteur public à aligner les cas d'usage de l’IA sur les principes éthiques australiens en matière d'IA, à identifier les impacts et les risques, et à mettre en œuvre des mesures d'atténuation.41
Financer l’IA et assurer la cohérence des investissements dans l’ensemble de l’administration
Souvent négligés dans les stratégies nationales en matière d’IA, les mécanismes de financement revêtent une grande importance aux fins de la mise en œuvre de l’IA dans l’administration (van Noordt, Medaglia et Tangi, 2023[95]). Même les initiatives les plus simples nécessitent un minimum de financement pour passer du concept à la réalité et, si le projet réussit, son déploiement à plus grande échelle requerra des financements beaucoup plus conséquents. La disponibilité et la nature du financement peut grandement contribuer à la réussite finale d'une innovation basée sur l’IA. Inversement, le manque de financement pour développer et mettre en œuvre de l’IA constitue un obstacle majeur à l’adoption de l’IA dans l’administration (CE, 2024[96] ; UK NAO, 2024[16]). Des ressources financières ciblées peuvent soutenir l’expérimentation et la mise à l’échelle des projets tout en limitant la dispersion des efforts et une adoption disparate de l’IA. La Commission européenne (CE) (2024[96]) l’a récemment souligné dans une étude de 2024 sur l’adoption stratégique de l’IA dans les services publics, dans laquelle elle recommande aux États d’accroître les financements et les ressources affectés à leur utilisation de l’IA. Plusieurs mécanismes de financement peuvent être envisagés. En voici quelques exemples :
Le Fonds de modernisation technologique des États-Unis (TMF) a lancé un appel aux investissements dans l’IA pour soutenir son secteur public, dans le cadre de mécanismes de financement plus larges visant à remplacer des systèmes informatiques vieillissants et obsolètes42.
En France, le Fonds pour la transformation de l'action publique propose un soutien financier aux institutions du secteur public cherchant à renforcer leurs politiques et leurs services grâce à l’IA, notamment pour les propositions de projet présentant un potentiel de déploiement plus large et de réplicabilité dans d’autres entités de l’administration publique43.
Le Royaume‑Uni a investi 110 millions GBP pour accélérer le recours à l’IA dans l’administration publique, notamment afin de renforcer les capacités de son Incubator for AI (i.AI), et s’est engagé à débloquer 10 millions GBP pour stimuler les capacités d’IA des instances de régulation (Cover-Kus, 2024[97] ; UK House of Commons, 2024[98]).
En Pologne, les ministères ont également été priés de réserver un certain pourcentage de leur budget à des achats d’IA (van Noordt, Medaglia et Tangi, 2023[95]).
Mécanismes de suivi au service d’investissements cohérents
Garantir le développement et le déploiement de l'IA dans le respect des délais et du budget contribue à la concrétisation des avantages et des résultats escomptés. Dans la droite ligne des investissements généraux dans les technologies numériques, les pouvoirs publics peuvent utiliser des outils de suivi pour superviser la gestion et le développement des systèmes d’IA dans l’ensemble de l’administration. Ils devraient en outre envisager de définir des indicateurs de performance clés et des approches structurées pour gérer l’évolution des projets d’IA dans le cadre d’une gestion de portefeuille des technologies de l’information. Ces outils de gestion peuvent étayer ou compléter les garde-fous prévus pour assurer le développement, le déploiement et l’utilisation d’une IA digne de confiance dans l’administration. De telles approches pourraient contenir des mécanismes de contrôle de la qualité qui seraient reliés à la planification et au suivi des investissements numériques afin d’assurer la cohérence tout au long du cycle de vie des systèmes d’IA. Certains pays ont formulé des orientations pour ancrer les actions de suivi et de mesure dans le cycle d’investissement des initiatives d’IA. Par exemple, la France a créé un outil de suivi pour les grands projets numériques de l’État, qui incluent des initiatives en matière d’IA, dont le coût dépasse 9 millions EUR44. Il présente les projets informatiques stratégiques et aide à identifier les mesures favorisant leur réussite. Il indique en outre la répartition des projets par ministère, par phase d’avancement, par zone fonctionnelle et par coût estimé (OCDe/UNESCO, 2024[29]). Toutefois, la plupart des pays éprouvent toujours des difficultés à mettre en place des pratiques de suivi continu ou ponctuel. Conscient de la nécessité de constituer des capacités et des programmes spécifiques de suivi des politiques en matière d’IA, le Bureau de l’Auditeur général (OAG) de la Norvège contrôle depuis 2023 l’utilisation de l’IA dans l’administration centrale dans le cadre de ses nouveaux audits de performance. Au niveau exécutif, le pays prend également des mesures pour renforcer le suivi et la supervision du portefeuille de projets d’IA de l’administration en procédant régulièrement à des audits internes, à des vérifications des performances et à des analyses d’impact (OCDE, 2024[99]).
Utiliser les marchés publics pour se procurer des produits et des services d’IA et orienter le marché
Il est essentiel de disposer de procédures et de mécanismes de passation des marchés publics adaptés pour accéder plus facilement aux systèmes d’IA développés par des tiers, qu'il s'agisse de grandes entreprises, de start-ups ou d’entrepreneurs, et bénéficier d’un bon rapport coût-efficacité. Les marchés publics ne permettent pas seulement d’acheter des solutions et des prestations, ils peuvent également servir une approche stratégique : utiliser les achats comme passerelle entre d'une part les missions et les objectifs publics et, d’autre part, les besoins et les valeurs de la société. Pour qu'ils puissent jouer ce rôle, les agents chargés des marchés publics doivent évaluer rigoureusement la concordance de l’IA avec les objectifs internes, le respect des principes d’équité et de transparence, l’efficacité de l’emploi des ressources, l’atténuation des risques (de biais ou de failles de sécurité, par exemple), l’implication des parties prenantes et des groupes affectés, et le respect des cadres juridiques et réglementaires applicables.
Dans l’optique d’un déploiement efficace des technologies d’IA, les entités publiques devraient envisager de mettre en œuvre des mécanismes de marchés publics qui favorisent l’agilité, l’itération et l'innovation. Le processus doit commencer par une préparation et une planification minutieuses afin de mettre en place des procédures de passation des marchés souples et efficaces, qui encouragent une large participation et soient ouvertes et accessibles à tous (UK DSIT, 2020[27]). Cette phase de préparation devrait porter sur les points suivants :
constituer une équipe pluridisciplinaire pour soutenir les achats de systèmes d’IA
évaluer les données et les méthodes de gouvernance actuelles afin de connaître le niveau de préparation ainsi que les capacités et les ressources existantes pour entraîner et utiliser efficacement les systèmes d’IA, le cas échéant
évaluer les risques potentiels tout au long du cycle de vie de l’IA et identifier les stratégies qui permettraient de les atténuer.
Méthodes de passation des marchés publics agiles et innovantes
Les méthodes d’achat public agiles et innovantes offrent la possibilité d’accélérer l’adoption de nouvelles technologies au sein de l’administration publique et de favoriser le développement et l’utilisation d’une IA digne de confiance (Monteiro, Hlacs et Boéchat, 2024[100]). Parmi ces méthodes figurent les concours et les démonstrations technologiques, les procédures basées sur un défi à relever ou encore les dialogues compétitifs (UK DSIT, 2020[27]). Par ailleurs, les accords-cadres politiques qui définissent des règles, des priorités et des lignes directrices générales, soit spécialement pour l’IA, soit avec des fournisseurs clés, peuvent permettre d’orienter les relations d’affaires avec le secteur privé, notamment pour les pays dont la gamme de pratiques de passation des marchés est moins variée. En Australie par exemple, le gouvernement est passé par un accord existant avec une multinationale du secteur des technologies pour déployer dans son administration un pilote à grande échelle d'une solution d’IA (Australia DTA, 2024[101]). Les accords-cadres politiques peuvent également prendre la forme d’environnements prédéfinis permettant l’achat d’IA selon des principes directeurs plus larges. Ainsi, le programme Adopt AI de la Commission européenne (2024[96]) vise à moderniser les achats publics de systèmes d’IA en encourageant le dialogue entre les acheteurs et le secteur de l’IA en Europe. Il promeut une compréhension mutuelle., stimule les investissements du secteur dans l’IA et vise à créer un espace de données relatives aux marchés publics. Le dialogue sectoriel établit une passerelle entre les acheteurs qui recherchent des solutions et les fournisseurs qui ont besoin de connaître les plans de l’administration publique (OCDe/UNESCO, 2024[29]).
Les achats publics en tant que levier pour le bien public et une IA digne de confiance
Les marchés publics peuvent constituer un outil stratégique pour modeler le marché et assurer que les systèmes d’IA respectent les règles de l’administration. Ils jouent également un rôle essentiel en définissant des exigences pour que les systèmes d’IA reflètent les valeurs publiques et permettent ainsi d’assurer la redevabilité, la sécurité et l’équité dans l’adoption de l’IA. La Commission européenne a par exemple établi en 2023 des clauses contractuelles types pour les achats publics dans le domaine de l’IA, qui ont été actualisées en 2025 pour les mettre en conformité avec le Règlement de l’UE sur l’intelligence artificielle de l’UE. Elles renferment des exigences précises pour les systèmes d’IA à haut risque et une version personnalisable pour les systèmes d’IA qui ne sont pas à haut risque (2023[102] ; 2025[103]).45 L’Australie a également élaboré des clauses types46. À l’échelon infranational, en Espagne, la ville de Barcelone a créé des clauses de marchés publics qui mettent l’accent sur la souveraineté des données et assurent que les données recueillies auprès du public, même par des entreprises privées, restent la propriété du secteur public (Berryhill et al., 2019[4]). Les directives de passation des marchés publics constituent un instrument de politique publique qui peut influer sur l’utilisation de l’IA à l’échelle mondiale. Par exemple, ChileCompra, l’instance chilienne chargée des marchés publics, a lancé un nouvel outil visant à garantir que les achats de systèmes d’IA respectent des principes de responsabilité et d’éthique (voir Encadré 5.24)47. Au niveau international, plusieurs initiatives comme celle du Forum économique mondial (2025[104]) baptisée « AI Procurement in a Box », offrent des conseils détaillés pour aider les pays à intégrer les bonnes pratiques aux procédures de marchés publics portant sur l’IA et à appliquer les cadres éthiques et réglementaires. En avril 2025, les États-Unis ont diffusé une nouvelle politique relative aux achats d’IA qui semble promouvoir la mise en place de procédures de marchés publics agiles, la suppression de celles qui sont obsolètes et l’allègement de la bureaucratie (Encadré 4.7).
Encadré 4.7. Renforcer l’efficacité des achats publics d’IA aux États-Unis
Copier le lien de Encadré 4.7. Renforcer l’efficacité des achats publics d’IA aux États-UnisAux États-Unis, le Bureau de la gestion et du budget de la Maison Blanche (OMB) a publié le 3 avril 2025 la directive M-25-22 Promouvoir l’efficacité des achats d'intelligence artificielle dans l’administration. Elle formule diverses obligations et recommandations à l’intention des agences fédérales pour les achats d’IA, qui doivent se dérouler en six phases. En voici une liste non exhaustive :
1. Identification des exigences : constituer une équipe dans laquelle plusieurs fonctions sont représentées pour éclairer les achats de systèmes d’IA et aider à dresser une première liste des risques potentiels à évaluer. Si possible, réfléchir aux utilisations qui pourraient constituer de l’IA « à fort impact » (Encadré 1.3).
2. Étude de marché et planification : identifier les capacités d’IA de pointe en réalisant une enquête de marché approfondie, en faisant appel aux connaissances d'autres agences et en étudiant les capacités novatrices des nouveaux venus sur le marché. Solliciter des démonstrations et des tests détaillés de systèmes d’IA pouvant présenter un intérêt afin d’évaluer les fournisseurs et identifier les obstacles à la rentabilité à long terme. Employer des techniques basées sur les performances pour identifier les exigences et les conditions contractuelles et de comprendre et d’évaluer les allégations des fournisseurs.
3. Élaboration des appels d'offres : y inclure les conditions qui protègent contre la dépendance à l’égard du fournisseur et celles liées aux droits de propriété intellectuelle et à l'utilisation légale des données publiques ; si possible, les agences doivent faire preuve de transparence et indiquer si l'utilisation de l’IA pourrait être considérée comme « à fort impact » et ce que cela implique pour le fournisseur.
4. Sélection et attribution : tester les solutions proposées pour comprendre leurs capacités et leurs limites. À nouveau, les agences doivent évaluer les propositions pour identifier tout risque potentiel lié à l’IA qui n'aurait pas été identifié préalablement. S'il y a lieu, inclure les dispositions nécessaires en ce qui concerne les droits de propriété intellectuelle et l’utilisation des données publiques, les protections contre la dépendance à l’égard du fournisseur, les obligations de conformité à la directive abordée à l’Encadré 4.1, les tests et le suivi continus, et les obligations du fournisseur relatives à la performance du système d’IA.
5. Administration du contrat : veiller à ce que les systèmes d’IA soient validés par un responsable habilité avant leur déploiement, mettre en place des procédures de suivi et de contrôle de l’exécution du contrat et identifier et atténuer les risques émergents. Organiser une évaluation périodique de la valeur ajoutée du système ou du service d’IA pour l’administration au regard, si possible, de son efficacité, de son efficience, de ses risques, de ses coûts de fonctionnement et d’entretien, et des retours des parties prenantes. Inclure s’il y a lieu des critères d’abandon de la solution.
6. Fin du contrat : veiller à ce que les mesures de protection contre la dépendance à l’égard du fournisseur soient appliquées, par exemple pour assurer le maintien des droits et la continuité de l’accès à des données ou à des produits dérivés.
Pour épauler les agences, une agence au centre de gouvernement diffusera un ou plusieurs guides en libre accès pour aider les agents responsables dans leurs achats de systèmes d’IA, et créera un annuaire numérique accessible aux fonctionnaires pour faciliter l’échange d'informations, de connaissances et de ressources sur les achats d’IA (bonnes pratiques, outils, formulation des clauses contractuelles, tarifs négociés, par exemple).
Source : (US OMB, 2025[105]).
Les marchés publics en tant qu'outil pour modeler le marché
En sus d’assurer que les administrations achètent des systèmes d’IA dignes de confiance pour leur propre usage, les marchés publics peuvent constituer un puissant levier pour influer sur la dynamique générale du marché, stimuler l'innovation et aligner le développement des systèmes d’IA sur les principes favorisant une IA digne de confiance. Les marchés publics représentent 13 % du PIB des pays de l’OCDE (OCDE, 2024[106]). En envisageant les achats publics comme un outil stratégique, les administrations peuvent utiliser le « poids économique du pouvoir d'achat du secteur public » pour favoriser le développement de solutions d’IA qui, non seulement, répondent à leurs propres besoins mais, également, favorisent un respect plus large des normes éthiques et réglementaires (Banque mondiale, 2025[107]).
Développer le potentiel de l’IA par le biais de partenariats
Les partenariats continus impliquant différents secteurs dont chacun joue un rôle actif et apporte une contribution concrète peuvent être très constructifs pour l’administration (OCDE/CAF, 2022[30]). Ils peuvent faciliter la collaboration entre les entités publiques et les spécialistes de l’IA dans d’autres secteurs, qui peuvent être des entreprises du secteur privé ou des acteurs non gouvernementaux (par exemple les institutions d’enseignement supérieur, les fondations), et ainsi promouvoir le développement et la mise en œuvre de solutions de pointe. Les partenariats public-privé (PPP) constituent certainement le principal mécanisme de ce type. En voici quelques exemples :
L'initiative InvestAI de l’Union européenne vise à mobiliser 200 milliards EUR d'investissements dans l’IA par un PPP comparable à un CERN pour l’intelligence artificielle afin de permettre le développement de systèmes d’IA de pointe associant plusieurs secteurs 48.
Comme cela a été annoncé lors du Sommet pour l’action sur l’IA organisé par la France en février 2025, dix pays travaillent au développement d’une grande plateforme et d’un incubateur de l’IA d’intérêt général pour soutenir, amplifier, réduire la fragmentation entre les initiatives publiques et privées sur l’IA d’intérêt général et combler la fracture numérique. L'initiative soutiendra les biens publics numériques, l’assistance technique et les projets de renforcement des capacités pour créer un écosystème de l’IA digne de confiance au service de l’intérêt général49.
Le Chili a constitué une organisation à but non lucratif, Data Observatory (DO), dirigée conjointement par le gouvernement, une société privée et une université. Ce centre technologique gère de vastes volumes de données dans l’objectif de contribuer au bien-être social en soutenant le développement durable du pays, la mise en place de facteurs propices à un déploiement optimal de l’IA ainsi que la création de politiques publiques et la prise de décisions stratégiques fondées sur des données factuelles50.
Au Portugal, c’est un assistant virtuel pour les services publics basé sur ChatGPT (voir encadré 5.46) qui a été créé par le biais d’un PPP entre le gouvernement et plusieurs entreprises.
La Lettonie a de son côté instauré un Centre pour l’intelligence artificielle, une fondation privée co-fondée par des administrations et des acteurs du milieu universitaire et du secteur privé. Elle a pour mission de promouvoir l’adoption d’une IA durable et digne de confiance dans différents secteurs, en portant une attention particulière à l’intégration de l’IA dans l’administration publique, et d'assurer l'incorporation de la langue et de la culture lettones dans les systèmes d’IA51.
Recourir aux start-ups GovTech
La GovTech est la combinaison de deux mécanismes : les achats publics et les partenariats. Elle désigne la collaboration entre le secteur public et des start-ups, des innovateurs, des « intrapreneurs » de l’administration et le monde universitaire afin de mettre en place des solutions d’administration numérique innovantes. Elle vient compléter les capacités existantes de l’administration et vise à disposer de processus et de services agiles, centrés sur l’utilisateur, réactifs, et économiques (OCDE, 2024[108]). Ce type d'initiative aide à mettre en place un gouvernement agile et à élever le niveau de maturité de l'administration numérique. Outre les gains d’efficacité et d’efficience qu’elle permet, la GovTech peut également encourager la participation aux marchés publics de start-ups et de nouveaux fournisseurs. L'innovation dans le cadre de la GovTech repose sur la co-création et l’expérimentation. Ce mode de collaboration va au-delà des relations fournisseur-donneur d'ordre classiques en créant de nouvelles formes de partenariats. Plutôt que de se concentrer sur un cahier des charges détaillé et des spécifications techniques précises, les dispositifs GovTech définissent le résultat qui est attendu et font appel à des acteurs de la GovTech pour concevoir la solution qui permettra d’y parvenir. Bien que la plupart de ces collaborations passent par des marchés publics (comme indiqué ci-dessus), elles peuvent également reposer sur des bourses et des concours récompensés par des prix en numéraire visant à stimuler la création de solutions innovantes (par ex., par des journées de démonstration ou des programmes d'incubation). L’OCDE a élaboré un Cadre d’action pour la GovTech qui dégage les facteurs déterminants pour tirer le meilleur parti de ces initiatives (Graphique 4.4).
Graphique 4.4. Le Cadre d'action pour la GovTech de l’OCDE
Copier le lien de Graphique 4.4. Le Cadre d'action pour la GovTech de l’OCDELes pays peuvent s’appuyer sur la GovTech pour expérimenter et développer des systèmes d’IA capables de répondre à des défis rencontrés par le secteur public. L’édition 2023 de l’Indice de l’administration numérique (DGI) de l’OCDE montre que 42 % des 33 pays de l’OCDE couverts définissent des objectifs de GovTech pour faciliter l’expérimentation et l’adoption de technologies émergentes, dont l’IA. Par exemple, l’Espagne (2024[109]) utilise son GobTech Lab pour concevoir des projets pilotes d’IA. Un rapport récent de la CE (2024[110]) intitulé GovTech: influencing factors, common requirements and recommendations (GovTech : facteurs d'influence, exigences communes et recommandations) présente plusieurs autres cas d’usage et diverses conclusions.
Établir des garde-fous pour favoriser une IA stratégique et responsable
Copier le lien de Établir des garde-fous pour favoriser une IA stratégique et responsableLes garde-fous contribuent à assurer le développement, le déploiement et l’utilisation d’une IA digne de confiance dans l’administration. Ils peuvent prendre la forme de mesures contraignantes ou non et de dispositifs de transparence et de reddition de comptes, par exemple des organes de suivi et de contrôle. Il est essentiel de prévoir des garde-fous pour gérer les risques associés à l’IA et pour déployer l’IA conformément aux cadres juridiques et aux valeurs sociales. Ils contribuent en outre à renforcer la confiance du public dans l’administration. Les sections ci-dessous passent en revue les principaux garde-fous ainsi que les options de politique publique que les gouvernements peuvent envisager selon leur contexte propre, en s’appuyant sur des exemples de bonnes pratiques internationales.
Il convient cependant de noter que ces garde-fous doivent être appréhendés en conjonction avec les leviers étudiés ci-dessus. Les garde-fous et leur interprétation peuvent être un déterminant majeur de l’aversion pour le risque, qui contribue à l'inaction et peut conduire à manquer des opportunités (voir le chapitre 1). Les pouvoirs publics doivent également prendre conscience de l’importance de supprimer ou de modifier les garde-fous qui ne remplissent plus leur fonction ou dont les répercussions négatives sont supérieures à leurs effets positifs.
Enfin, cette section ne doit pas laisser penser que les gouvernements doivent mettre en place tous les garde-fous abordés, ni qu’ils s'appliquent à toutes les utilisations de l’IA. En effet, cela pourrait également exacerber l’aversion pour le risque et entraver l’adoption d'une IA digne de confiance dans l’administration. Au lieu de cela, les gouvernements devraient déterminer les garde-fous qui correspondent à leur fonctionnement et à leur contexte et les appliquer aux utilisations de l’IA en fonction des risques, c’est-à-dire dans une mesure qui corresponde au niveau de risque potentiel.
Mesures de politique publique favorisant une IA digne de confiance
Les mesures de politique publique favorisant une IA digne de confiance peuvent être des instruments non contraignants tels que des documents d'orientation, des chartes éthiques, des instructions techniques et des cadres de gestion des risques, ou des instruments contraignants tels que des textes législatifs et réglementaires. Ces mesures doivent être utilisées en conjonction avec d’autres garde-fous protégeant les droits humains et s'y ajouter. Elles s’intègrent en effet à des approches de gestion des risques et favorisent le développement et le déploiement responsables de l’IA. Elles aident par exemple à limiter les utilisations abusives de l’IA, les résultats biaisés, les atteintes à la vie privée et les effets non recherchés tout en offrant des outils pratiques pour mettre en œuvre les principes de gouvernance et assurer une performance homogène pour l’ensemble des systèmes d’IA utilisés (UNESCO, 2024[111]). De manière générale, la conception des mesures d'action publique liées à l’IA dans l’administration devrait suivre un ensemble de bonnes pratiques à même de garantir qu’elles sont effectivement propices à une IA digne de confiance. Ces mesures d'action publique devraient :
Être conformes aux principes éthiques et aux valeurs sociales afin d’assurer que les technologies servent le bien commun. Ce point est important pour préserver la confiance du public, protéger le libre exercice des droits humains et assurer le fonctionnement équitable et responsable des systèmes d’IA.
Prendre en compte l’innovation et la gestion des risques pour aider les organismes publics à appréhender le paysage changeant de l’IA de manière responsable, en mettant à profit son pouvoir de transformation tout en remédiant aux risques et aux difficultés qu’elle suscite (OCDE, 2023[35] ; 2021[112]).
Évaluer et identifier de manière continue les risques potentiels liés aux systèmes d’IA. Les outils d’évaluation des risques permettent de mettre en place une approche équilibrée dans laquelle peuvent coexister l'utilisation responsable de l’IA et l’innovation de pointe afin que l’IA soit au service de la société tout en respectant les principes éthiques (UNESCO, 2023[113]).
Associer les parties prenantes au moyen de différents dispositifs institutionnels pour que l'utilisation de l’IA corresponde aux besoins et aux valeurs des publics qu’elle affecte (voir la section consacrée à la mobilisation des parties prenantes de ce chapitre).
Mesures de politique publique non contraignantes
L'une des démarches les plus courantes pour favoriser la mise en place d'une IA digne de confiance consiste à adhérer à des principes ou des chartes éthiques et/ou à en élaborer. Ces instruments définissent un ensemble de valeurs et de bonnes pratiques propres à garantir une utilisation transparente, juste et responsable de l’IA. Dans le monde, quelque 200 instruments de ce type ont été élaborés (Corrêa et al., 2023[114]) ; souvent, ces principes sont intégrés à une stratégie nationale pour l'intelligence artificielle. Ils répondent généralement à un large éventail de préoccupations d'ordre éthique comme les biais, la transparence, la redevabilité et l’impact de l’IA sur la société.
Des progrès importants ont été accomplis dans la gouvernance mondiale de l’IA avec l’élaboration de plusieurs instruments par des organisations intergouvernementales et supranationales, pour standardiser et homogénéiser le développement de l’IA au niveau mondial. Citons par exemple les Principes de l’OCDE sur l’IA (voir le tableau 2.2 du chapitre 2), les Lignes directrices en matière d’éthique pour une IA digne de confiance de la Commission européenne, et les Principes directeurs internationaux du processus d’Hiroshima sur l’IA mis en place dans le cadre du G752. L’Union africaine (UA) travaille également à l’élaboration de sa propre charte pour une IA digne de confiance (OECD.AI, 2025[115]). D'autres textes internationaux non contraignants ont également été établis, par exemple le projet de résolution adopté en 2024 par l’Assemblée générale des Nations Unies qui vise à promouvoir « des systèmes d’intelligence artificielle sûrs, sécurisés et dignes de confiance » et a reçu le soutien de plus de 120 pays53, ainsi que des déclarations adoptées lors des sommets internationaux consacrés à l’IA qui se sont tenus au Royaume-Uni, en Corée et en France54. Au niveau national, des États ont entrepris d’élaborer leur propre charte éthique. En voici quelques exemples :
L’Australie a adopté des principes éthiques relatifs à l'intelligence artificielle qui visent à inciter les organisations à réfléchir à l'impact de l'utilisation des systèmes basés sur l'IA et à aider les entreprises et les gouvernements à respecter les normes éthiques les plus strictes lors de la conception, du développement et de la mise en œuvre de l'IA.. Sur la base de ce cadre, le pays a également élaboré une Norme facultative relative à la sécurité de l’IA (VAISS) qui s’adresse à l’ensemble des organisations australiennes et livre des conseils pratiques pour utiliser l’IA et innover dans ce domaine de manière sûre et responsable55.
En Colombie, le Cadre éthique pour l'intelligence artificielle expose une série de principes et une méthodologie applicables à la conception, au développement et au déploiement des systèmes d’IA (OCDE, 2024[3]).56
L’Égypte a de son côté adopté la Charte égyptienne pour une IA responsable qui s’articule autour de plusieurs grands principes57.
Les pays sont en outre de plus en plus nombreux à élaborer des documents d’orientation sur l’utilisation de l’IA. Bien qu'ils soient comparables aux orientations décrites ci-dessus qui font office de leviers, ils sont davantage axés sur la définition des paramètres propices à une utilisation digne de confiance de l’IA. Généralement élaborés à l'intention des agents publics chargés de développer des projets d’IA et de gérer la collecte et l’analyse de vastes volumes de données, ces documents visent à les doter des connaissances nécessaires pour monter des projets d’IA dans le respect de principes éthiques et à les sensibiliser aux risques potentiels, notamment aux violations du droit applicable en matière de données personnelles (OCDe/UNESCO, 2024[29]). Ces orientations posent des règles plus concrètes que des principes et abordent souvent des aspects techniques qui peuvent affecter le déploiement de l’IA. Par exemple :
Au Royaume-Uni, le gouvernement et l’Alan Turing Institute ont élaboré conjointement un guide pour « Comprendre les questions d’éthique et de sécurité posées par l’IA » (2019[116]). Au Canada, le Guide sur l’utilisation de l’IA générative sert d’orientation aux institutions fédérales afin de les aider dans leur utilisation des technologies d’IA générative (OCDe/UNESCO, 2024[29]).58
L’Allemagne a entrepris de se doter de deux séries de lignes directrices pour assurer une utilisation éthique de l'IA dans les services publics : les Lignes directrices pour l’utilisation de l’IA dans les services liés à l’emploi et à la protection sociale, et les Lignes directrices sur l’IA dans l’administration fédérale (OCDe/UNESCO, 2024[29] ; Policy Lab Digital, Work & Society within the German Federal Ministry of Labour and Social Affairs, 2024[117]). Ces dernières ont déjà été publiées tandis que les premières sont toujours en cours d’élaboration59.
Il importe de noter que les mesures non contraignantes ont une portée limitée. Or, la plupart des mesures spécifiques adoptées par les pays de l’OCDE pour favoriser une IA digne de confiance en milieu professionnel sont essentiellement dépourvues d’effet obligatoire et reposent sur la capacité des entreprises à s’autoréglementer (instruments non contraignants). (OCDE, 2023[118]). Parce qu'ils sont non contraignants, ces instruments peuvent se révéler insuffisants pour prévenir les dommages liés à l’IA dans le milieu professionnel ou y remédier. Les pouvoirs publics devraient donc également envisager des mesures contraignantes pour pallier ces écueils dans les domaines plus sensibles.
Mesures de politique publique contraignantes
À ce jour, la plupart des mesures contraignantes concernant l’IA dans l’administration publique ont été mises en place à l’échelon national ou infranational, comme nous allons le voir ci-dessous. Cependant, plusieurs mécanismes internationaux ont récemment été adoptés. L’exemple le plus éloquent en est peut-être le Règlement de l’UE établissant des règles harmonisées concernant l’intelligence artificielle (encadré 1.2). Adoptée plus récemment, la Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit (2024[119]) constitue le premier traité international juridiquement contraignant en matière d’IA. Ouvert pour signature en septembre 2024. il a vocation à s’appliquer tant au secteur public qu’au secteur privé. Il vise à assurer que les activités qui s'inscrivent dans le cycle de vie des systèmes d’intelligence artificielle soient pleinement conformes aux droits humains, à la démocratie et à l’état de droit, tout en favorisant le progrès technologique et l’innovation. En l’état en septembre 2025, il compte 17 signataires, dont l’Union européenne et le Royaume-Uni, ainsi que des pays non européens comme le Canada, le Japon et les États-Unis.
Les textes législatifs et réglementaires sur l’IA adoptés au niveau national peuvent couvrir les activités tout au long du cycle de vie de l’IA et régir des questions telles que la protection des données et de la vie privée ou les utilisations abusives. Ces règles contribuent à garantir un développement de l’IA conforme aux valeurs de la société et au droit applicable en fournissant aux développeurs des instructions claires à cet effet et en instaurant des limites par le biais de règles de transparence, de redevabilité et d’équité à force obligatoire (OCDE, 2025[120]). Elles peuvent également définir les responsabilités quant aux résultats de l’IA et promouvoir la cohérence et la coopération entre les juridictions en harmonisant les normes. Lorsqu’elles sont bien conçues et adaptées, les lois et réglementations aident à promouvoir l'innovation tout en instaurant les protections nécessaires pour que l’IA serve l’intérêt général. Ces mesures contraignantes peuvent être des textes généraux de gouvernance de l’IA applicables à tous les secteurs, des textes spécifiques à l’IA axés sur son utilisation par les administrations, ou des textes transversaux qui ont vocation à s’appliquer à l’IA sans y être spécifiquement consacrés.
Les pouvoirs publics doivent cependant avoir conscience de l’évolution rapide que connaît actuellement l’IA et de ses nombreuses trajectoires possibles par la suite. Comme l'indique le chapitre 3, les agents de la fonction publique se heurtent à des règles peu claires ou obsolètes qui limitent leur capacité à adopter l’IA. Lorsqu’ils élaborent des instruments nationaux contraignants, les pouvoirs publics devraient veiller à appliquer la Recommandation de l’OCDE en faveur d’une gouvernance réglementaire agile permettant de mettre l’innovation à profit (2021[121]). Le Royaume-Uni s’y est efforcé avec son "approche de réglementation de l’IA favorable à l'innovation »60.
Les textes généraux relatifs à la gouvernance de l’IA sont des textes d’application large qui régissent la mise en place de systèmes d’IA dans différents secteurs d’activité, domaines de politique publique et régions. Ils s’attachent à établir des cadres pour la gestion des risques, l’utilisation conforme à l’éthique et l’impact pour la société de l’IA. Bien que de nombreux pays disposent de textes qui peuvent produire des effets en matière d’IA (comme les textes sur la protection des données), peu se sont dotés de textes formels qui traitent spécifiquement de l’IA. Plusieurs lois et réglementations nationales ont été adoptées ou sont à l’état de projet. En voici quelques exemples :
En Corée, la loi fondamentale sur le développement de l’IA et la création d’un socle de confiance, ou « loi fondamentale sur l’IA » (2024[122]), qui entrera en vigueur en janvier 2026, crée un cadre exhaustif pour promouvoir l’innovation dans le domaine de l’IA et impose à toute organisation utilisant l’IA sur le marché coréen des normes éthique et de sécurité ainsi que des règles propres à instaurer la confiance du public.
Bahreïn et Oman ont élaboré en 2024 des projets de textes de loi sur l’IA, celui d’Oman s’étant accompagné d'une consultation publique61.
Plusieurs pays d’Amérique latine (notamment l’Argentine, le Brésil, le Chili, la Colombie, le Costa Rica, l’Équateur, le Mexique, Panama, le Pérou et l’Uruguay) travaillent actuellement à la rédaction d’un texte général sur l’IA (UNESCO, 2024[111]).
Des lois et réglementations spécifiques peuvent également être élaborés pour régir l’utilisation des systèmes d’IA dans l’administration. Ce type de texte contient souvent des dispositions sur la transparence, la redevabilité, la gouvernance de l’IA dans les entités publiques, des considérations éthiques et l’utilisation responsable de l’IA dans les fonctions et les services. Aux États‑Unis, au niveau infranational, plusieurs États ont pris des mesures dans ce sens. L’État de New York a par exemple adopté en 2024 la loi « LOADinG » qui vise à limiter le recours aux systèmes de prise de décision automatisée par les agences étatiques et instaure des protections pour les agents publics dans le domaine de l’IA (Werner, 2024[123]). Le Delaware a renforcé le contrôle de l’IA et de l’IA générative dans l’État (2024[124]). Toutefois, l’adoption de lois et règlementations à l'intention de l’administration spécifiques à l’IA restent limitées, la plupart des cadres s’inscrivant dans des efforts plus larges de gouvernance de l’IA. Outre les lois et réglementations contraignantes, des orientations pratiques formelles peuvent également imposer des règles à force obligatoire aux organismes publics. Ainsi, la directive Accélérer l’utilisation au niveau fédéral de l’IA par l’innovation, la gouvernance et la confiance publique, adoptée par les États-Unis en 2025, couvre un large éventail de questions et de mesures destinées à assurer une IA digne de confiance dans l'administration publique tout en supprimant les obstacles à l’innovation Encadré 4.1).62
Les textes transversaux sont des textes larges qui, sans être spécifiquement axées sur l’IA, peuvent avoir des conséquences importantes pour son déploiement et son utilisation dans l’administration publique. Ils peuvent prendre la forme de règlements sur la protection des données ou de la vie privée, les risques en matière de cybersécurité ou les droits humains, et créent un cadre pour l'utilisation des systèmes d’IA dans le secteur public . Par exemple, les lois sur la protection des données et de la vie privée protègent les informations personnelles par le biais de dispositions régissant la façon dont les systèmes d’IA collectent, conservent et traitent les données, ce qui garantit le respect du droit à la vie privée des individus. Sans être expressément conçues pour l’IA, elles ont des répercussions importantes quant à son utilisation. Le RGPD de l’UE contient ainsi des obligations spécifiques de gestion des données personnelles qui s’appliquent à tous les secteurs et couvrent des aspects comme la collecte, la conservation et le traitement des données, et les droits des personnes concernées.
Promouvoir une utilisation transparente de l’IA par l’administration publique
Pour assurer la transparence dans le domaine de l’IA, les pouvoirs publics devraient, dans la mesure du possible, faire en sorte que les algorithmes soient ouverts, compréhensibles et accessibles au public afin de lui permettre de les examiner, et communiquer les processus et les décisions auxquels des systèmes d’IA contribuent. À cet effet, il conviendrait qu’ils fournissent des informations claires et appropriées au contexte sur le fonctionnement des systèmes d’IA, sur les données qu'ils utilisent, sur la façon dont ils aboutissent à des conclusions et des résultats ainsi que sur les mécanismes permettant de les contester. Cette transparence doit permettre aux parties prenantes d’accéder à l'information, de prendre des décisions éclairées et, si nécessaire, de demander réparation en cas de préjudice. Pour une approche cohérente, durable et efficace de la transparence algorithmique, des informations essentielles doivent être diffusées sur les systèmes d’IA et les algorithmes utilisés, ainsi que sur les données d’entraînement. À ces informations doivent s’ajouter des efforts en vue, notamment, de mobiliser un ensemble large et diversifié de parties prenantes pour assurer la prise en compte de leurs besoins et de leurs préoccupations (voir la section de ce chapitre consacrée à la mobilisation des parties prenantes) ; de promouvoir l’acquisition des fondamentaux sur l’IA afin que les communautés puissent exprimer un avis éclairé sur les questions qui les concernent ; et de renforcer les règles nationales en vigueur sur la transparence et la responsabilité pour gérer efficacement les risques et les difficultés que pose l’IA.
En sus de promouvoir la confiance et de créer de la valeur ajoutée pour le public, la transparence est un élément fondamental de l’obligation de rendre des comptes à laquelle sont tenus les pouvoirs publics. Comme l'indiquent les Principes de l’OCDE sur l’IA, la transparence et la redevabilité sont deux concepts distincts mais complémentaires. La transparence permet d’exercer une supervision plus éclairée, favorise la confiance et donne effet à la redevabilité de ceux qui développent ou contrôlent ces systèmes. La transparence renforce également l’équité des systèmes reposant sur l’IA et contribue à assurer que leur mise en œuvre soit effectivement contrôlée et évaluée, en particulier lorsque les décisions ont des répercussions directes sur la vie des individus, par exemple dans le domaine financier et dans ceux de la santé ou de la justice pénale.
Les pays devraient se doter d’un certain nombre de politiques, d'outils, de méthodes et de mécanismes de transparence qui correspondent à leur public et fournissent des informations claires. Globalement, ces instruments peuvent être considérés comme anticipatifs ou réactifs (GPAI, 2024[125]).
Les instruments de transparence anticipatifs
De manière générale, « la compréhension qu’a le secteur public de sa propre utilisation de l’IA est très insuffisante, ce qui nuit à la fois à la redevabilité démocratique et au partage de connaissances en interne » (Ada Lovelace Institute, 2025[23]). Les pouvoirs publics doivent disposer d’instruments leur permettant de comprendre leur propre utilisation de l’IA et, par extension, de partager des informations sur les systèmes d’IA utilisés dans l’administration de manière spontanée, sans que cela fasse suite à une demande (GPAI, 2024[125]). Plusieurs options s'offrent à eux pour mettre en œuvre une transparence spontanée : des registres publics des systèmes d’IA, la publication du code source et de la documentation des algorithmes, la diffusion d’informations sous l’impulsion des utilisateurs, et les réponses automatiques déclenchées par des interactions.
Les registres publics de systèmes d’IA commencent à se généraliser et prennent la forme de répertoires centralisant toutes les informations sur les systèmes d’IA actuellement utilisés dans l’administration. Le but est ici de proposer un « guichet unique » à partir duquel les citoyens et les parties prenantes peuvent accéder facilement à des informations sur les systèmes d’IA utilisés, leurs objectifs, les domaines auxquels ils s’appliquent et le type d'institution concernée. En voici quelques exemples :
l’ensemble de données de la Colombie sur les systèmes de décision automatisés utilisés dans les administrations du pays63
les Registres pour la transparence algorithmique du Royaume-Uni64
l'inventaire des cas d’utilisation de l’IA du gouvernement des États-Unis, que les agences fédérales sont tenues de mettre à jour au moins une fois par an (US OMB, 2025[17])65
les inventaires nationaux des algorithmes publics du Chili et de la France et l’Inventaire des algorithmes publics des Pays-Bas66
les registres infranationaux des algorithmes d’Amsterdam, aux Pays-Bas, et d’Helsinki, en Finlande.67
La création d’un registre public centralisé des systèmes d’IA dans lequel il est possible d’effectuer une recherche constitue une bonne pratique pour améliorer la transparence. Cependant, l’entreprise peut être ardue, notamment en raison de la rapidité avec laquelle les pouvoirs publics déploient des systèmes d’IA dans de nombreux domaines. Au Chili, les difficultés rencontrées pour assurer la transparence des cas d’utilisation de l’IA ont incité à la création du Conseil chilien de la transparence, une instance indépendante instituée par la loi et chargée d’émettre des recommandations pour améliorer la transparence algorithmique dans l’administration (2024[126]). Aux Pays-Bas, en l’état en octobre 2024, environ 5 % des systèmes d’IA figurent dans le Registre néerlandais de l’IA (Cour des comptes des Pays-Bas[127]). Au Royaume-Uni, le Comité des comptes publics (Public Accounts Committee, PAC) (2025[128]) a constaté que les Registres de transparence algorithmique qui ont été publiés étaient relativement peu nombreux (33), ce qui nuit à la confiance du public dans l’adoption de l’IA dans l’administration. Pourtant, les registres de ce type pourraient être alimentés automatiquement, si et suivant la façon dont les analyses d’impact et les évaluations des risques sont effectuées dans l’administration (OCDE, 2024[94]). Par exemple, la Directive sur la prise de décision automatisée du Canada impose la réalisation d'une évaluation d’impact algorithmique (EIA) pour les systèmes de décision automatisés. Les résultats de l’EIA doivent être publiés dans un format accessible sur le Portail du gouvernement ouvert du Canada. Si cette obligation s’appliquait à tous les systèmes d’IA, le processus pourrait alimenter automatiquement un registre public.
La publication du code source et de la documentation de l’algorithme sert également cet objectif de transparence. La mise à disposition du code source des algorithmes publics, qui est considérée comme une bonne pratique de la transparence algorithmique, présente surtout un intérêt pour les publics avertis et les spécialistes des technologies (Ada Lovelace Institute, 2021[129]). Elle permet à ceux qui en ont les compétences d’examiner, de tester et de vérifier la façon dont ces systèmes fonctionnent, ce qui renforce la redevabilité et, partant, la confiance. Certaines initiatives ne vont pas jusqu'à publier l'intégralité du code source mais exigent la publication d'une documentation complète qui peut avoir un effet similaire.
En France, la loi pour une République numérique impose aux administrations concernées de « [publier] en ligne les règles définissant les principaux traitements algorithmiques utilisés dans l'accomplissement de leurs missions lorsqu'ils fondent des décisions individuelles »68.
La norme d’enregistrement pour la transparence algorithmique du Royaume-Uni oblige les organisations du secteur public à divulguer en toute transparence des informations détaillées sur les méthodes basées sur des algorithmes utilisées dans leurs processus décisionnels (OCDE, 2023[130]).69
Au Canada, la Directive sur la prise de décision automatisée détaille les explications à fournir sur les systèmes d’IA utilisés en fonction du niveau de risque, lui-même déterminé par un outil d’évaluation d’impact algorithmique (dont les résultats doivent également être publiés).70
La directive des États-Unis présentée à l’Encadré 4.1 impose aux agences du gouvernement fédéral, lorsque c’est possible et moyennant quelques exceptions, de publier et de conserver à disposition le code de l’IA sous la forme d'un logiciel open source dans un registre public.
Les efforts de transparence peuvent également être itératifs, comme en matière de diffusion d’informations sous l’impulsion des utilisateurs. Ce type de diffusion anticipative se rapporte à des entités publiques qui choisissent de divulguer spontanément des informations après avoir reçu plusieurs demandes similaires. Elles évitent ainsi de devoir faire face à de nouvelles demandes, ce qui entraînerait une perte de temps à la fois pour les agents et pour les intéressés. Bien que son utilisation à fin de transparence algorithmique ne soit guère documentée, cette approche pourrait constituer une solution pertinente et économique pour divulguer les informations fréquemment demandées sur les algorithmes. (GPAI, 2024[125])
Suivant le contexte, une partie des informations divulguées peut être réservée à certains utilisateurs. Les réponses automatisées déclenchées par des interactions désignent les cas dans lesquels les informations sur un système de prise de décision automatisée sont automatiquement fournies à l'occasion de processus administratifs spécifiques. Par exemple, lorsqu’une personne interagit avec le site Internet ou la plateforme en ligne d'un organisme public en vue d'obtenir un service ou de réaliser une démarche administrative faisant intervenir un système de prise de décision automatisée, des informations sur ce système pourraient être fournies automatiquement, sans que l’utilisateur en fasse expressément la demande (GPAI, 2024[125]).
Instruments de transparence réactifs
Les instruments de transparence réactifs sont ceux utilisés par les pouvoirs publics pour répondre à des demandes spécifiques d'informations soumises par des personnes physiques, des groupes ou des autorités. Contrairement à la diffusion anticipative, la divulgation est déclenchée par une demande externe et ne résulte pas d’une initiative spontanée de l’administration (GPAI, 2024[125]). Elle fait suite à une demande exprimée en vertu de la législation du pays sur l’accès à l’information et visant à obtenir des précisions sur un algorithme ou son utilisation, et s’appuie donc sur un instrument de politique publique présent dans la plupart des contextes ou des pays71. Toutefois, ces régimes ne sont pas spécifiquement conçus pour assurer la transparence algorithmique et peuvent être inefficaces à cette fin (Valderrama, Hermosilla et Garrido, 2023[131]). Par exemple, une demande d’informations sur le code source d'un algorithme ou sur son application pourra ne pas produire les résultats attendus pour des raisons liées aux pratiques de gestion des registres et aux exceptions prévues dans de nombreuses législations sur l’accès à l’information, par exemple parce que cet accès contrevient à des règles de protection de la propriété intellectuelle ou du secret des affaires que peuvent faire valoir les fournisseurs privés de services publics (Fink, 2017[132] ; Brauneis et Goodman, 2017[133]).
Appuyer la redevabilité par la gestion des risques tout au long du cycle de vie des systèmes d’IA
Le contexte du développement ou de l’utilisation de certains systèmes d’IA de l’administration peut poser des risques plus importants. Il peut s'agir de l’échelle à laquelle ils sont déployés (gravité et probabilité d’effets dommageables), de leur portée (étendue du champ d’application, par ex. nombre de personnes concernées) ou de la latitude offerte (choix de se soumettre ou non, et dans quelle mesure, aux effets d’un système d’IA) (OCDE, 2022[58]). Les procédures de gestion des risques peuvent aider à identifier les systèmes ou les contextes qui présentent les risques les plus importants afin de pouvoir les atténuer (OCDE, 2023[134]).
La gestion des risques des systèmes d’IA qui peuvent présenter des risques élevés devrait être éclairée par des directives sur le niveau de risque acceptable suivant l’utilisation et le contexte. Elle doit être organisée tant en amont, par des évaluations ex ante de l'impact et des risques, qu’en aval du déploiement des systèmes d’IA. Le Cadre de gestion des risques liés à l’IA du National Institute of Standards and Technology (NIST) (2023[135]) en constitue l'un des exemples les plus connus. Ce cadre aide les organisations publiques ou privées à identifier les risques spécifiques que présente l’IA générative et propose des mesures pour gérer ces risques en fonction de leurs objectifs et de leurs priorités. Bien qu’il ait été conçu pour les États‑Unis, ce cadre a été traduit dans plusieurs langues et est utilisé dans d’autres pays. Les Principes directeurs internationaux et le Code de conduite du processus d’Hiroshima sur l’IA mis en place dans le cadre du G7 définissent également des règles de base en matière de gestion des risques (2023[136] ; [137]). De même, les États‑Unis imposent des évaluations des risques pour l’utilisation de l’IA et mettent en place des pratiques de gestion des risques pour ses utilisations considérées comme étant « à fort impact » (voir l’encadré 1.3) (US OMB, 2025[17]). Autre exemple tiré d'un pays : le Bureau de la transformation numérique de la Türkiye mène des études sur une « Recommandation relative à la gestion des risques de l’IA » et un « Label IA digne de confiance » pour suivre de près l'utilisation de l’IA au service du public (OCDE, 2024[3]).
Plusieurs spécialistes de l’IA recommandent que les pays fassent de l’établissement ou de l’adoption de ce type de processus une priorité absolue pour limiter les répercussions négatives de l’IA (OCDE, 2024[138]). Or, en raison de la prolifération de ce type de cadres, déterminer lequel sera le plus approprié n’est pas chose aisée. Alors que les appels au développement de cadres de gestion des risques se multiplient, l'interopérabilité améliorerait l’efficacité et réduirait les coûts de mise en œuvre et en conformité. L’OCDE (2023[139]) s’emploie activement à promouvoir la cohérence des politiques et l'interopérabilité de ces cadres72.
Évaluations d’impact
Les évaluations d’impact, dont les évaluations de l'impact algorithmique (EIA), peuvent aider les organisations publiques à anticiper et à évaluer la façon dont un algorithme fonctionnera dans un contexte donné. L’évaluation d'un système d’IA peut s’appuyer sur des prompts, des ateliers, des documents ou encore des discussions avec les développeurs du système d’IA et d’autres parties prenantes pour étudier les incidences positives ou négatives qu'il produira sur les personnes ou la société (Valderrama, Hermosilla et Garrido, 2023[131]). Elle se fait généralement aux premiers stades du développement d'un système, avant sa mise en service (ex ante), mais peut également intervenir après son déploiement (ex post).
L'objectif principal d'une EIA ex ante est d’évaluer les effets potentiels d’un système algorithmique sur l’économie et sur la société et de prévoir un mécanisme de redevabilité (Valderrama, Hermosilla et Garrido, 2023[131]). Les EIA aident également à cerner, à classer et à atténuer les risques ou dommages potentiels associés à l’algorithme. Un exemple illustrant cette technique est la Directive sur la prise de décisions automatisée du Canada, qui impose la conduite d’une EIA portant sur plusieurs aspects, dont est déduit un niveau d'incidence qui entraîne l’application de différentes mesures. L’approche a été adaptée dans d’autres pays, comme l’Uruguay, qui s’en est servi pour élaborer son Manuel de l’étude d'impact algorithmique (OCDE/CAF, 2022[30]). En 2024, le Conseil de l’Europe a publié un guide intitulé Évaluation des risques et des impacts des systèmes d’intelligence artificielle (IA) du point de vue des droits humains, de la démocratie et de l’État de droit (HUDERIA)73. Il fournit une méthodologie pour l’élaboration d'une évaluation des risques puis d’un plan d'atténuation qui vise à limiter ou à éliminer les risques identifiés afin de protéger le public des effets dommageables potentiels.
Les EIA ex ante constituent actuellement l’approche la plus couramment retenue. L’OCDE soutient généralement cette approche car elle aide à traduire les principes en mesures concrètes74. Toutefois, certains auteurs font observer qu’évaluer les impacts n’est pas synonyme d’évaluer les dommages et que, dans certains cas, cette approche peut conduire à ignorer des dommages bien réels. Cela s'explique en partie par le fait que les indicateurs utilisés dans les évaluations d’impact ne mesurent généralement pas les dommages émotionnels ou psychologiques (Gupta et al., 2021[140]). Il ressort de ces travaux que, bien souvent, l’EIA ne se place pas du point de vue de tous ceux qui pourraient être affectés par un système d’IA. Pour d’autres détracteurs, l’EIA n’est pas conçue pour assurer un suivi continu des effets des systèmes déployés et les adapter ensuite en fonction des retours exprimés et des incidences moins directes constatées dans le monde réel (Mehta, Rogers et Gilbert, 2023[141]). De récents travaux de l’Ada Lovelace Institute (2025[23]) sur les enseignements tirés d'une étude menée pendant six ans sur l’IA dans l’administration semblent également aller dans ce sens. Ils font notamment le constat que « l’IA est sociotechnique en ce qu’elle influe sur, et est influencée par, les contextes sociaux dans lesquels elle est déployée avec, souvent, des effets par ricochet qui n’étaient pas prévus. La réussite de la mise en place des outils d’IA et leur acceptation sont tributaires de leur articulation avec les systèmes, les valeurs et la confiance de la société. Négliger ces facteurs en s’attachant uniquement à des critères techniques peut susciter la défiance et, en définitive, faire obstacle à leur adoption et à leur utilisation ».
Pour que l’EIA porte ses fruits, les pouvoirs publics doivent se pencher sérieusement sur les aspects sociotechniques en mobilisant les bonnes parties prenantes et en adoptant différents points de vue (Lam et al., 2023[142]). Quoi qu’il en soit, les évaluations ex ante suffisent rarement à elles seules et devraient être complétées par des évaluations d’impact ex post qui s’appuient sur les résultats des EIA ex ante. Il faut pour cela mettre en place des mécanismes permettant un suivi, une adaptation et une mise en œuvre des responsabilités en continu afin que les systèmes d'IA évoluent en fonction de leurs effets tangibles. Aux États-Unis, le NIST a lancé une Évaluation des risques et des impacts de l’IA (ARIA) pour renforcer les tests et l’évaluation d’aspects sociotechniques75.
En ce qui concerne les évaluations d'impact ex ante, les pouvoirs publics devraient se demander en amont si l’IA constitue la solution la plus adaptée pour traiter un problème donné, comme indiqué dans la partie « Déterminer si l’IA constitue la solution la plus adaptée » de la section consacrée aux leviers d'une IA digne de confiance.
Audits algorithmiques
Une fois le système déployé, son comportement doit faire l’objet d'une surveillance pour déterminer les risques, attendus ou non, qui sont susceptibles de se matérialiser, ainsi que pour s'assurer qu’il est mis en œuvre de manière responsable par les organisations concernées. Ce type de surveillance prend souvent la forme d’un audit algorithmique. Il consiste en une analyse indépendante, souvent confiée à un prestataire externe, du système d’IA ou des processus qui l’entourent. Il peut s’agir d’un audit technique des données d’entrée et de sortie du système ; d’un audit de conformité pour vérifier que l’équipe de développement de l’IA a dûment suivi les procédures applicables ou les obligations réglementaires ; d'une inspection conduite par une autorité de régulation pour surveiller le comportement d’un système d’IA sur la durée ; ou d’un audit sociotechnique visant à analyser les incidences d’un système sur des processus ou des contextes sociétaux plus larges dans lesquels il intervient. Les audits n’étant généralement menés qu’une fois que le système est en service, ils appuient la redevabilité en cherchant à déterminer si son comportement correspond bien aux intentions ou aux allégations de ses développeurs. L’Encadré 4.8 fournit quelques exemples de processus d’audits algorithmiques.
Bien entendu, il incombe aux pouvoirs publics de concevoir leurs audits avec le plus grand soin. Des audits d’IA qui comportent des failles pourraient susciter une confiance indue, et « masquer des problèmes que présentent les systèmes algorithmiques et créer un environnement permissif autour d'une IA piètrement conçue ou mise en œuvre » (Goodman et Trehu, 2022[143]). Pour certains spécialistes, un audit insuffisant peut être vain voire exacerber les problèmes qu'il entend régler, ou s’analyser en un « simulacre d’audit » visant à laisser penser que les procédures de diligence sont bien appliquées.
Évaluations des risques liés aux capacités du système d’IA
Les évaluations des risques liés aux capacités d’un système d’IA donné présentent des similitudes avec les évaluations d'impact mais s'intéressent précisément à la probabilité qu’un système d’IA produise des effets préjudiciables en raison de ses capacités. Elles sont également menées aux premiers stades du développement d'un système, avant sa mise en service, bien qu’elles puissent aussi intervenir après son déploiement. L’analyse devrait prendre en compte les risques associés aux limites et aux capacités des systèmes d’IA, ainsi qu’aux différents contextes de leur utilisation. Par exemple, en Australie, le gouvernement du Queensland a publié des Principes directeurs pour l’évaluation des risques liés à l’IA à l’intention des agents de la fonction publique76. L’évaluation des risques est devenue de plus en plus courante dans le secteur privé pour les systèmes d’IA perfectionnés, comme avec les « politiques de déploiement responsable » qui définissent des mesures à prendre en fonction de l’évaluation des risques liées aux capacités d’un système (OCDE, 2024[138]). Lorsqu’elles identifient des capacités potentiellement dangereuses, ces politiques définissent souvent des seuils qui déclenchent des actions pour ralentir ou stopper le développement (METR, 2023[144]).77
Les organismes de test et d’évaluation et les organismes nationaux, multilatéraux ou régionaux tels que les instituts pour la sûreté ou la sécurité de l’IA jouent un rôle croissant dans la facilitation de la gestion des risques, notamment en concevant des écosystèmes de test et d’évaluation (OCDE, 2024[138]). Par exemple, le DSIT du Royaume-Uni a élaboré des conseils pour un déploiement responsable des capacités78.
Comparé à la multitude d’exemples de pays menant des évaluations d’impact ou des audits algorithmiques, rares sont ceux qui élaborent ou utilisent d’autres types d’évaluation des risques de l’IA dans l’administration. La raison en est peut-être que la plupart des systèmes d’IA de l’administration sont acquis auprès d’entreprises du secteur privé, qui réalisent des évaluations des risques préalablement à la commercialisation de leurs produits. Une autre explication pourrait tenir au fait que les systèmes d’IA de l’administration, comme nous l’avons vu au chapitre 2, appliquent rarement les approches les plus récentes et ont tendance à recourir à des systèmes basés sur des règles ou à des approches d’apprentissage automatique plus établies. Quoi qu’il en soit, les administrations désireuses d'utiliser des systèmes d’IA plus perfectionnés et dotés de capacités plus importantes devraient envisager de mettre en œuvre ce type d’approche de l’évaluation des risques. En sus des tests structurés, elles pourraient mettre les systèmes à l’épreuve en menant des attaques par exemples contradictoires (pratique du « red-teaming », en référence à la constitution d’équipes « rouges » pour mener ces attaques), notamment pour les modèles de fondation complexes qui sont utilisés ou acquis par les administrations, pour pouvoir identifier en amont les vulnérabilités, les risques d’utilisation abusive et les activités ou résultats nocifs d'un système dans des applications sensibles de l’administration. L’évaluation portant sur les capacités peut également inclure une évaluation spécifique au langage, notamment pour les grands modèles de langage utilisés dans les services publics multilingues. Ces évaluations pourraient permettre de garantir l’équité du fonctionnement du système, de remédier aux problèmes d’asymétrie des données dans les modèles de fondation et de vérifier qu'ils sont adaptés pour les langues qu’ils prennent en charge.
Donner aux organismes de contrôle et aux organes consultatifs les moyens de promouvoir une IA responsable
Organismes de contrôle
Le rôle des organismes de contrôle évolue pour relever les nouveaux défis posés par le déploiement de l’IA dans l’administration. Les institutions supérieures de contrôle des finances publiques (ISC) 79 sont ainsi de plus en plus appelées à étendre leurs activités de contrôle aux algorithmes d’IA qui sous-tendent les activités de l’administration et les décisions publiques. Cette évolution requiert une évaluation complète des algorithmes d’IA non seulement au regard de leur exactitude, de leur sécurité et de leur efficacité, mais également au regard de leur transparence et de leur équité. L’Encadré 4.8 illustre la façon dont les ISC ont fait évoluer leur mission pour mener des audits algorithmiques et élaborer des cadres à cet effet.
Les audits servent différents objectifs, comme évaluer la performance de systèmes algorithmiques au regard de critères établis, assurer la conformité réglementaire, détecter les discriminations illégales, améliorer la transparence et l’explicabilité, évaluer la sécurité et la solidité, mesurer les impacts sociaux et éthiques au sens large et assurer la mise en œuvre de la responsabilité des organisations quant aux systèmes qu’elles utilisent. Les audits peuvent également être utilisés pour identifier des failles systémiques dans l’utilisation des algorithmes, ce qui apporte des éclairages précieux sur leur application dans un autre contexte (Ada Lovelace Institute, 2021[129]).
Encadré 4.8. Les approches et outils d’audit algorithmique dans le secteur public
Copier le lien de Encadré 4.8. Les approches et outils d’audit algorithmique dans le secteur publicFrance
En 2024, la Cour des comptes a évalué l'intégration de l’IA au sein du ministère de l’Économie et des Finances. Depuis 2015, le ministère a déployé 35 programmes d’IA pour détecter les risques de fraude des particuliers et les difficultés des entreprises, ou pour apporter des réponses plus rapides aux usagers. Le rapport a conclu que, si les aspects technologiques étaient bien maîtrisés, les enjeux concernant l’éthique, les ressources humaines et l’environnement restaient insuffisamment pris en compte. La Cour a préconisé un pilotage ministériel robuste pour garantir une IA publique digne de confiance, une meilleure évaluation et une affectation plus transparente des gains de productivité, et une plus grande anticipation des conséquences de l’IA sur les missions confiées aux agents.
Pays-Bas
La Cour des comptes des Pays‑Bas a contrôlé l'utilisation faite par l’administration néerlandaise des algorithmes. Ce faisant, elle a mis au point un cadre de contrôle ad hoc pour l’évaluation de l’utilisation d’algorithmes au sein des différentes administrations. Le cadre permet d’évaluer toute une série d’aspects, de la gouvernance et de la redevabilité jusqu’à des aspects techniques comme les systèmes d’IA et leurs données, la vie privée, des aspects généraux liés aux technologies de l’information ou encore des considérations éthiques. Le cadre est utilisé par différentes institutions néerlandaises pour guider le déploiement de nouveaux algorithmes. En 2022, elle a examiné neuf algorithmes majeurs du secteur public et constaté que six d’entre eux (soit 67 %) ne répondaient pas à certains principes de base, ce qui exposait les entités concernées à des biais, des fuites de données et des accès non autorisés.
Suède
L’Office national d’audit suédois a mené un audit portant sur trois systèmes de prise de décision automatisée utilisés par l’administration suédoise : les prestations parentales de l’Agence d’assurance sociale, l’imposition des revenus annuels des particuliers de l’Agence des impôts, et les permis d’apprentissage de la conduite de l’Agence des transports. L’audit avait pour objet de vérifier que ces systèmes fonctionnaient de manière efficace et efficiente tout en préservant la sécurité juridique dans la prise de décision. Il a évalué la performance des systèmes au regard de critères législatifs d’efficience et de sécurité juridique et identifié plusieurs lacunes.
Royaume-Uni
En 2024, le Bureau national d’audit du Royaume-Uni a publié un rapport sur l’IA dans l’administration qui examinait l’efficacité avec laquelle les organismes gouvernementaux du Royaume-Uni utilisaient l’IA pour les services publics. Il a constaté que seuls 21 % des 87 organismes analysés disposaient d'une stratégie en matière d’IA, conformément à la politique du pays, tandis que 61 % avaient pris des dispositions à cet effet. Plusieurs initiatives se distinguaient, comme celle du Département du travail et des pensions qui a constitué un comité de pilotage de l’IA et un groupe distinct de conseil et de garantie, ou celle du ministère de la Justice qui a créé un groupe de pilotage de l’IA pour examiner différents cas d’utilisation de l’IA, complété par des panels consultatifs sur les algorithmes qui comprennent notamment des utilisateurs finals et des spécialistes de l’éthique des données.
États-Unis
Le Government Accountability Office (Bureau des comptes publics) a publié un document intitulé « Intelligence artificielle : cadre de mise en œuvre des responsabilités à l'intention des agences fédérales et autres entités ». Il présente plusieurs bonnes pratiques en matière de responsabilité, articulées autour des principes de gouvernance, des données, de la performance et du suivi, pour aider les agences fédérales et autres entités à utiliser l’IA de manière responsable.
Collaboration transfrontières
Les Institutions supérieures de contrôle (ISC) de l'Allemagne, de la Finlande, de la Norvège, des Pays-Bas et du Royaume-Uni ont publié conjointement Audit des algorithmes d'apprentissage automatique : livre blanc à l'intention des vérificateurs publics, qui est mis à jour régulièrement.
Source : https://www.ccomptes.fr/fr/publications/lintelligence-artificielle-dans-les-politiques-publiques-lexemple-du-ministere-de, https://english.rekenkamer.nl/publications/reports/2021/01/26/understanding-algorithms, https://www.riksrevisionen.se/download/18.2008b69c18bd0f6ed3f25040/1608291082190/RiR_2020_22_en-GB.pdf, (Ada Lovelace Institute, 2021[129]), https://www.gao.gov/products/gao-21-519sp, https://www.auditingalgorithms.net, (OCDE, 2023[130]), https://www.nao.org.uk/reports/use-of-artificial-intelligence-in-government.
Les organismes de contrôle réunissent dans une même enceinte des compétences et des points de vue variés, ce qui est important pour l’efficacité des mécanismes de redevabilité (Ada Lovelace Institute, 2021[129]). Par exemple :
En 2023, l’Espagne a créé un organisme indépendant, l’Agence espagnole de contrôle de l’IA (AESIA) (Pehlivan et Valín, 2023[145]).
En 2024, le Règlement de l’UE sur l’intelligence artificielle a institué le Comité européen de l’intelligence artificielle (le Comité de l’IA)80.
Les médiateurs occupent également une place importante dans le contrôle de l’utilisation de l’IA par le secteur public. Par exemple, le Médiateur européen a enquêté sur l'utilisation de l’IA par la Commission européenne81 tandis que le médiateur et l’autorité de protection des données néerlandais ont examiné de près l’impact de la prise de décisions algorithmique et de l’IA sur les droits des citoyens aux Pays-Bas82.
Les parlements et leurs comités de contrôle jouent également un rôle de plus en plus actif dans différents pays, notamment en Australie et au Royaume-Uni83, où ils ont mené des enquêtes sur l’IA et la transparence algorithmique. Certains organes parlementaires établissent des comités ad hoc pour examiner différentes préoccupations suscitées par l’IA, en particulier lorsque de nouveaux risques émergent ou en cas de controverse.
Organes consultatifs
Les organes consultatifs peuvent également contribuer à assurer que les pouvoirs publics utilisent l’IA de manière fiable. Ils peuvent fournir des conseils, des éclairages et des recommandations avisés suite à des demandes spécifiques formulées par les pouvoirs publics et portant sur des questions émergentes relatives à l’IA. Certains ont un pouvoir d'initiative plus important, comme le Conseil consultatif sur l’IA de l’Irlande qui élabore et diffuse son propre programme de travail en matière de conseil. 84 Parmi les autres exemples figurent :
En Nouvelle-Zélande, le Groupe consultatif sur l’éthique en matière de données publie des orientations sur l’utilisation des systèmes algorithmiques par les organismes publics. Ses recommandations abordent des points comme le respect des droits humains, la validité scientifique, la vie privée et l’éthique (Ada Lovelace Institute, 2021[129])85.
La Grèce a créé en novembre 2023 un Comité consultatif supérieur sur l’IA, qui joue un rôle clé dans la conception de la politique nationale en matière d’IA. Il a pour mission de promouvoir la croissance économique et sociale tout en atténuant les risques associés à l’utilisation non contrôlée de l’IA. Le Comité a élaboré un « Plan pour la transition vers l’IA de la Grèce » (2024[47]). Le pays a également instauré la Commission nationale pour la bioéthique et la technoéthique, un organe indépendant chargé de formuler des orientations stratégiques et des recommandations sur les implications éthiques de l’IA, entre autres missions86.
L’Espagne (2024[146]) a créé le Conseil consultatif sur l’intelligence artificielle, un organe indépendant chargé de fournir au gouvernement des analyses, des conseils et un appui dans le domaine de l’IA. Il s’est réuni pour la première fois en juin 2024.
Le gouvernement de l’Australie‑Occidentale a constitué en 2025 un comité consultatif sur l’IA pour prodiguer des conseils aux agences gouvernementales en matière d’atténuation des risques et promouvoir une utilisation sûre, responsable et éthique de l’IA dans le secteur public en Australie‑Occidentale87.
Instituts et unités de sûreté et de sécurité de l’IA
Dans le monde, les gouvernements ont commencé à se saisir de cette question, comme en témoignent les instituts et unités de sûreté et de sécurité de l’IA mis en place par plusieurs pays (OCDE, 2024[138]). Par exemple, le Canada, la Corée, les États-Unis, la France, le Japon, le Royaume-Uni, Singapour et l’Union européenne ont créé ce type de structure88 et décidé, avec trois pays supplémentaires, de former un réseau international (UK DSIT, 2024[147]). Le mandat de ces instituts ou unités ne se limite généralement pas à l’utilisation de l'IA dans l’administration mais, pour certains, elle constitue un axe de travail spécifique. Par exemple, le futur Institut de sécurité de l’IA de l’Inde a vocation à devenir un centre de réflexion et d’action pour l'innovation en matière de gouvernance et aura notamment comme mission de prodiguer des conseils juridiques, techniques et de politique publique à des institutions publiques qui déploient l’IA89.
La mobilisation des parties prenantes au service d’une IA stratégique et responsable
Copier le lien de La mobilisation des parties prenantes au service d’une IA stratégique et responsableLes systèmes d’IA ont le potentiel de transformer radicalement les interactions entre les citoyens et les pouvoirs publics, ainsi qu’entre les citoyens eux-mêmes. Certaines parties prenantes, dont des membres du public, devraient avoir leur mot à dire quant à la façon dont leurs pouvoirs publics utilisent et gouvernent les technologies basées sur l’IA. L’implication des citoyens et des parties prenantes peut renforcer la confiance dans les systèmes d’IA utilisés par l’administration et leur légitimité et favoriser des systèmes d’IA qui tiennent mieux compte des besoins de tous (OCDE, 2024[148]). Ces efforts peuvent également promouvoir la transparence, la redevabilité et l’équité des systèmes d’IA, et limiter les biais et les effets néfastes potentiels.
Mobiliser les citoyens et les parties prenantes, qu’il s’agisse de scientifiques, d’ingénieurs, des groupes concernés, d’investisseurs, d’entreprises ou d’institutions peut enrichir la vision des problématiques liées aux technologies d’IA, aider les responsables de l’élaboration des politiques à anticiper les problèmes d’acceptation par le public et promouvoir une bonne communication (OCDE, 2024[148]). Cette mobilisation est primordiale pour aligner l’utilisation et la gouvernance de l’IA sur les objectifs et les besoins de la société. Elle aide les parties prenantes à comprendre, à remettre en question et à influencer la façon dont les algorithmes et les mécanismes de gouvernance de l’IA sont conçus et fonctionnent.
À un stade précoce, la mobilisation permet une évaluation complète des conséquences et des risques potentiels pour divers groupes et favorise un développement plus inclusif et plus éthique des systèmes d’IA et de la gouvernance de l’IA. Cette approche collaborative aide à identifier et à analyser les préoccupations qui se font jour en tenant compte de différents points de vue, et assure que les systèmes d’IA soient conçus et mis en œuvre de manière à la fois responsable et bénéfique pour toutes les parties prenantes concernées (OCDE, 2021[112]). Les citoyens et les parties prenantes peuvent intervenir sur différents aspects de l’élaboration des politiques publiques :
Définition d’un programme. Au Royaume-Uni, le Centre pour l’éthique des données et l’innovation a fait participer les citoyens par le biais d’une étude, intitulée « Attitudes du public à l’égard des données et de l’IA : étude de suivi » qui en est maintenant à sa quatrième édition, et qui peut éclairer la façon dont l’État fera évoluer sa politique à l’avenir.
Conception des technologies. En 2020, le gouvernement français a lancé PIAF, une initiative collaborative avec les citoyens, les milieux universitaires et la société civile visant à élaborer une base de données francophone pour entraîner les systèmes d’IA90. En Grèce, la Pharos AI Factory, en cours de conception, servira de plateforme centrale de collaboration, de partage de connaissances, de mise en commun de ressources et de développement conjoint de projets entre le secteur public, les institutions d’enseignement supérieur et le secteur privé.
Évaluation des technologies. Aux États-Unis, le réseau d’évaluation participative des technologies ECAST (Expert & Citizen Assessment of Science & Technology) organise un dialogue entre des spécialistes et des citoyens afin de donner à l'opinion publique un poids dans les décisions d'ordre scientifique ou technologique prises par le gouvernement. 91
Réglementation. En 2024, l’Union européenne a ouvert une consultation multipartite sur les modèles d’IA à usage général en application du règlement sur l’IA92 et lancé un appel à manifestations d’intérêt pour participer à l’élaboration du premier Code de bonnes pratiques relatif à l’IA à usage général93.
Les pouvoirs publics ont à leur disposition plusieurs outils pour accroître la participation des citoyens au développement stratégique et opérationnel de l’IA. Les sections ci-dessous s'intéressent aux processus délibératifs tels que les assemblées de citoyens, la mobilisation des agents de la fonction publique et la participation des utilisateurs au développement de l’IA. Par ailleurs, si les citoyens peuvent être mobilisées au service de l’utilisation et de la gouvernance de l’IA dans l’administration, les pays peuvent aussi, inversement, utiliser l’IA pour mobiliser les citoyens, un thème qui est abordé dans le chapitre 5 (section consacrée à la participation civique et au gouvernement ouvert).
Assemblées citoyennes
Les assemblées citoyennes, également appelées jurys ou panels de citoyens, désignent un groupe de personnes ayant fait l’objet d’une sélection aléatoire et globalement représentatives d’une communauté qui consacrent un temps significatif à s’informer et à collaborer, dans le cadre d’une délibération avec facilitation, en vue de formuler des recommandations collectives à l’intention des responsables publics (OCDE, 2020[149]).
Les processus délibératifs représentatifs sont particulièrement intéressants pour résoudre des dilemmes liés à des valeurs, des problèmes complexes qui nécessitent des arbitrages et affectent plusieurs groupes de personnes de manière différente, ou des problématiques qui s’inscrivent dans un temps plus long que le cycle électoral (OCDE, 2022[150]). Le développement et la gouvernance de l’IA se prêtent bien à ce type de processus. L’IA nécessite de se saisir d’enjeux éthiques et sociaux pour décider de son utilisation dans des contextes spécifiques (comme la reconnaissance faciale) et peut être considérée comme une discipline technique qui requiert des arbitrages entre innovation et régulation. Ce d’autant plus que l’adoption des technologies d’IA façonnera très certainement les interactions sociales sur le long terme, et que leurs effets pourront se faire ressentir au fil de nombreuses générations.
Citons comme exemple d’assemblée citoyenne sur l’AI le lancement, en 2024, par la Présidence belge du Conseil de l’Union européenne d’un groupe représentatif de 60 citoyens belges pour échanger sur leur vision de l’IA en Europe (BeEU, 2024[151]). Autre exemple, aux États-Unis cette fois, où en 2023, un enseignant de l’université de Syracuse s’est associé au Center for New Democratic Processes (CNDP) pour mener le premier événement délibératif national sur l’IA aux États-Unis (Atwood et Bozentko, 2023[152]). On retrouve des exemples d'assemblées sur l’IA aux niveaux international et infranational. En 2025 et en 2026, la Coalition mondiale pour une gouvernance inclusive de l’IA, lancée en partenariat entre le Stanford Deliberative Democracy Lab et Missions Publiques, une agence spécialisée dans la participation citoyenne, organisera des assemblées délibératives qui entendent faire participer plus de 10 000 citoyens dans plus de 100 pays. Des rencontres de suivi avec des responsables de l’action publique sont prévues pour garantir que le processus délibératif soit suivi d’effets (Vergne et Siu, 2025[153]). La participation des citoyens est également une composante importante d'une tendance émergente dans la gouvernance de l’IA : le localisme de l’IA, où des communautés et des administrations locales prennent l'initiative du débat afin de réguler l’utilisation des technologies d’IA de façon à ce qu’elles correspondent à leurs besoins (Marcucci, Kalkar et Verhulst, 2022[154]). En 2018 par exemple, le laboratoire d'innovation de Mexico, Laboratorio para la Ciudad de Mexico (LabCDMX), a mené un exercice délibératif en vue d’élaborer un Cadre de gouvernance anticipative pour l’IA pour la ville de Mexico (Ramos, 2018[155]).
Mobiliser les agents de la fonction publique et les partenaires sociaux
La mobilisation des fonctionnaires, qui sont aux avant-postes de la prestation des services publics, est primordiale aux fins de l'utilisation de l’IA dans l’administration. Leurs tâches et leurs responsabilités sont directement affectées par l’introduction des technologies d'IA, et leurs éclairages ainsi que leur expérience sont précieux pour favoriser une utilisation responsable et efficace de l’IA. Comme nous l’avons vu dans le chapitre 1, l’automatisation, la création ou la transformation de tâches suite à l'introduction de l’IA peut créer des opportunités d’amélioration de l’efficience et de l’efficacité. Mais ces changements peuvent également susciter des craintes chez les agents quant à la sécurité de l’emploi, aux conditions de travail et aux droits des travailleurs.
La conception et la mise en œuvre d’initiatives dans le domaine de l’IA devraient donc se faire dans le respect des droits des travailleurs, promouvoir leur bien-être et s'appuyer sur leurs éclairages (OCDE, 2023[118]). À cet effet, il importe d’instaurer un dialogue inclusif et transparent avec les fonctionnaires et les partenaires sociaux, notamment les syndicats et les associations d’employés. Les agents devraient être informés des objectifs du projet d’IA, de ses effets potentiels sur leur travail et des mesures prévues pour en atténuer les effets préjudiciables. Ils devraient également avoir la possibilité de faire part de leurs préoccupations et de leur avis et de contribuer par leurs éclairages à la conception des approches en matière d’IA.
Le dialogue social et la négociation collective sont essentiels pour une adoption réussie de l’IA dans l’administration (OCDE, 2023[118]). Ces mécanismes permettent en effet d’instaurer la confiance et une collaboration efficace entre les agents de la fonction publique et d’assurer l'accès à la formation afin de développer les compétences et capacités nécessaires pour travailler avec l’IA. Les partenaires sociaux devraient également être impliqués car ils jouent un rôle majeur dans la négociation des conditions de travail.
Impliquer les utilisateurs dans le développement de l’IA
Impliquer les utilisateurs dans le développement de l’IA au sein de l’administration permet d'assurer que les solutions d’IA soient centrées sur l'utilisateur et répondent effectivement à des problématiques concrètes. Le Graphique 4.5 présente les principales étapes à suivre pour comprendre les utilisateurs et leurs besoins. Les pouvoirs publics peuvent appliquer des méthodes de recherche, comme examiner les données existantes, mener des entretiens et observer les utilisateurs, pour se faire une idée précise de ces aspects et ainsi pouvoir renforcer la pertinence des applications d’IA et leur acceptation (OCDe/UNESCO, 2024[29]). Conformément aux Principes de bonne pratique de l’OCDE pour la conception et la prestation des services publics à l’ère du numérique, les utilisateurs peuvent aider à identifier les éléments nécessaires à une conception itérative des services, à la simplification des procédures sous-jacentes et à l’amélioration de l’accès pour tous les groupes d'utilisateurs (2022[156]). En outre, en faisant de la conception et de la prestation des services basés sur l’IA un processus participatif et inclusif, les utilisateurs gagnent en pouvoir et peuvent jouer un rôle actif dans la co-création et la co-conception des services publics. À cette fin, différents mécanismes peuvent être mis en œuvre, comme faire participer les utilisateurs à la mise à l’essai, au déploiement itératif et à l’amélioration du service, et mener des expérimentations rigoureuses et conçues de manière éthique avec des groupes d'utilisateur pour que l'utilisation de l’IA produise les effets attendus et que les risques éventuels soient identifiés à petite échelle avant un déploiement plus large (voir le point « Créer des espaces pour expérimenter » ci-dessus).
Graphique 4.5. Les principales étapes pour comprendre les utilisateurs et leurs besoins vis-à-vis de l’IA dans l’administration
Copier le lien de Graphique 4.5. Les principales étapes pour comprendre les utilisateurs et leurs besoins vis-à-vis de l’IA dans l’administrationCollaborer au-delà des frontières
Comme toute technologie numérique, l’IA ne connaît pas de frontières. Tant ses bienfaits que ses risques et ses impacts peuvent se matérialiser au-delà des frontières94. La mobilisation et la collaboration transnationales sont essentielles pour combler les écarts de connaissances et de développement entre les pays, s'attaquer à des défis communs et complexes, gérer les risques, et mettre en œuvre des politiques et des services innovants. La collaboration internationale peut aider à renforcer les capacités en matière d’IA des administrations dans le monde ou dans des régions spécifiques, comme l’illustre l’exemple de la région Amérique latine et Caraïbes (ALC) (OCDE/CAF, 2022[30]). Cette collaboration peut prendre la forme d’une mise à disposition d’algorithmes ouverts, d’infrastructures et d’ensemble de données intergouvernementaux, ou d’efforts conjoints visant à favoriser le développement responsable de technologies émergentes. L’OCDE (2021[157]) a identifié trois mécanismes que les pouvoirs publics utilisent pour se mettre en relation et œuvrer ensemble à la résolution de problématiques transversales rencontrées par des entités administratives de différents pays ou communes à un domaine, notamment dans des domaines liés à l'innovation numérique et à l’IA dans l’administration.
Les organes de gouvernance transnationaux peuvent se saisir de défis complexes ou communs à plusieurs juridictions, comme l’intégration et l'harmonisation des approches en matière d’IA et l’interopérabilité des systèmes d’IA. Ces organes permettent aux pays de coordonner et de mettre à profit les efforts collectifs d’acteurs séparés par des frontières. On le voit par exemple avec la création par l’Union européenne du Bureau de l’IA chargé de mettre en œuvre, de superviser et d’appliquer le Règlement sur l’IA. Au-delà de l’UE, à l’OCDE, le Groupe de travail des hauts responsables de l'administration numérique (E-Leaders) et son groupe thématique sur l’IA ont fourni aux pays une enceinte pour travailler ensemble à l’élaboration de conseils et de produits analytiques sur l’IA dans l’administration, avec la possibilité de proposer à terme des instruments juridiques non contraignants de l’OCDE portant sur ce domaine. Par ailleurs, plusieurs pays ont collaboré à l’élaboration de normes mondiales mises en œuvre par des organismes internationaux, telle la norme ISO/IEC 42001 sur les systèmes de gestion de l’IA, qui présentent une pertinence à la fois pour les entités du secteur public, pour les entreprises et pour les organisations à but non lucratif. Cependant, actuellement, il ne semble exister aucun exemple d’organe de gouvernance transnational spécialement consacré au développement et à l’utilisation de l’IA dans l’administration.
Les pays utilisent également des réseaux innovants pour appuyer la collaboration transfrontières. Il s’agit de structures horizontales, souvent informelles et créées ab initio pour faire converger naturellement des idées et des savoir-faire à travers les frontières. Par exemple, le Réseau des administrations publiques européennes (EUPAN) promeut l’échange de connaissances sur l’IA95.
Enfin, troisièmement, certains pays explorent de nouveaux systèmes dynamiques de gouvernance qui offrent des méthodes entièrement nouvelles de collaboration transfrontières. Par exemple, plusieurs pays ont œuvré ensemble au développement d’infrastructures numériques collectives et d’approches communes d’échange de données pour fluidifier les activités au niveau international. Avec son Règlement pour une Europe interopérable entré en vigueur en 2024, qui établit un cadre pour améliorer l’interopérabilité du secteur public dans l’ensemble de l’Union et ainsi assurer la fluidité des services transfrontières, l’Union européenne fait figure de pionnière dans ce domaine. Parmi les principaux éléments du règlement figurent la création d'une structure de gouvernance de l'interopérabilité, des mesures visant à promouvoir l'innovation et à renforcer l'échange de connaissances, la mise en place de bacs à sable réglementaires pour tester des solutions, et des évaluations obligatoires de l'interopérabilité pour les administrations publiques.
Un cadre pour une IA digne de confiance dans l'administration
Copier le lien de Un cadre pour une IA digne de confiance dans l'administrationConsidérées dans leur ensemble, les mesures de politique publique abordées dans ce chapitre viennent former un Cadre pour une IA digne de confiance dans l'administration qui peut aider les pouvoirs publics à aligner leurs mesures de développement et d’adoption de l’IA sur les principes fondés sur des valeurs et les préconisations exposés dans la Recommandation de l’OCDE sur l’intelligence artificielle (2024[158]). Le cadre fournit aux pouvoirs publics des pistes pour que se réalisent les promesses de productivité, de réactivité et de redevabilité de l’IA en mettant en place la bonne combinaison de leviers, de garde-fous et de mécanismes de participation.
Le Graphique 4.6 offre une représentation visuelle du cadre tandis que le Tableau 4.1 expose les questions et les mesures de politique publique qui sous-tendent ses différents éléments.
Graphique 4.6. Le Cadre de l’OCDE pour une intelligence artificielle digne de confiance dans l’administration
Copier le lien de Graphique 4.6. Le Cadre de l’OCDE pour une intelligence artificielle digne de confiance dans l’administration
Source : (OCDE, 2024[3]), tel que perfectionné et parachevé à l'aide des travaux menés pour l’élaboration du présent rapport.
Tableau 4.1. Questions et mesures de politique publique qui sous-tendent le Cadre pour une IA digne de confiance dans l'administration
Copier le lien de Tableau 4.1. Questions et mesures de politique publique qui sous-tendent le Cadre pour une IA digne de confiance dans l'administration|
Question de politique publique |
Mesure de politique publique |
Description |
|---|---|---|
|
Quelles mesures concrètes et outils de politique publique les pouvoirs publics peuvent-ils mettre en place pour lever les freins existants à une utilisation digne de confiance de l’IA dans l’administration ? |
Leviers |
Mesures de politiques publiques et actions axées sur les domaines dans lesquels les responsables identifient des contraintes et des lacunes, en vue d’établir un environnement solide et favorable et de favoriser l’adoption à grande échelle de l’IA dans l’administration. Ces leviers sont notamment la gouvernance, les infrastructures, les données, les compétences et les talents, les investissements, les marchés publics et les partenariats. |
|
Garde-fous |
Outils de politique publique que les pouvoirs publics peuvent mettre en place pour une utilisation responsable, digne de confiance et centrée sur l’humain de l’IA dans l’administration. Ils peuvent inclure des instruments non contraignants, des textes législatifs et réglementaires, des instruments de transparence et de gestion des risques, ou des organismes de contrôle (ne relevant pas du pouvoir exécutif) et de suivi (au sein du pouvoir exécutif). |
|
|
Qui les pouvoirs publics devraient-ils mobiliser aux fins de la conception et de la mise en œuvre des leviers et des garde-fous et de l’établissement de cas d’utilisation, pour garantir une utilisation fiable de l’IA dans l’administration ? |
Mobilisation |
Différentes parties prenantes doivent être mobilisées pour ériger les piliers d'une utilisation responsable de l’intelligence artificielle dans l’administration. Ces acteurs, issus de l’administration (ministres, agents de la fonction publique, administrations infranationales, par exemple), de l’écosystème dans son ensemble ou extérieurs à la juridiction, devraient être mobilisés dans le cadre d’efforts ciblés visant à saisir les opportunités et à relever les défis liés à l'utilisation de l’IA dans l’administration. |
|
Quels sont les résultats recherchés par les pouvoirs publics via l'utilisation d’une IA digne de confiance ? |
Résultats |
L’IA dans l’administration peut être bénéfique pour la productivité, la réactivité et la redevabilité. |
Source : (OCDE, 2024[3]).
Travaux futurs de l’OCDE sur ces questions
Copier le lien de Travaux futurs de l’OCDE sur ces questionsLes leviers, les garde-fous et les mécanismes de mobilisation compris dans le Cadre de l’OCDE pour une IA digne de confiance dans l'administration forment un socle solide sur lesquels les pouvoirs publics peuvent s’appuyer pour adopter une approche stratégique et responsable de l’IA. Toutefois, un rapport ne peut rendre compte à lui seul des complexités de ce large éventail d’activités nécessaires pour adopter des technologies d’IA qui évoluent rapidement, tout en gérant les risques majeurs qu’elles posent et les difficultés liées à leur mise en œuvre. L’OCDE entend mener d'autres travaux pour approfondir les éléments de ce cadre et présenter des éclairages sur les mesures concrètes à la disposition des pouvoirs publics pour mettre en place les éléments de ce socle. Pour commencer, un rapport sur l’expérimentation de l’IA dans l’administration en cours d’élaboration paraîtra au cours des prochains mois.
Il convient d'ores et déjà de noter que les pouvoirs publics doivent impérativement pouvoir identifier les domaines prioritaires vers lesquels diriger leurs ressources et leurs investissements d’IA, en soupesant les avantages et les risques potentiels présentés par différentes applications d’IA et en procédant aux arbitrages nécessaires. L'OCDE réitère sa préconisation aux administrations (2024[3]) de donner la priorité aux applications de l’IA qui allient une forte valeur ajoutée et des risques faibles, surtout s’ils s’engagent tout juste sur la voie de la maturité numérique. Or, beaucoup ne disposent pas encore des outils qui leur permettraient de prendre toute la mesure des retombées tangibles ou potentielles (efficacité des dépenses, qualité des services ou incidences négatives) de ces applications et de déterminer en conséquence celles qui répondent à ces critères. La mise en place de ces outils devrait être érigée en priorité par les pouvoirs publics et s’inscrire dans une démarche globale visant à exploiter pleinement le potentiel de l’IA. L’OCDE s’attachera de son côté à mettre l’accent sur cette dimension dans ses futurs travaux.
Références
[23] Ada Lovelace Institute (2025), Learn fast and build things: Lessons from six years of studying AI in the public sector, Ada Lovelace Institute, https://www.adalovelaceinstitute.org/policy-briefing/public-sector-ai/.
[129] Ada Lovelace Institute (2021), Algorithmic accountability for the public sector, Ada Lovelace Institute (Ada), AI Now Institute (AI Now), and Open Government Partnerships (OGP), https://www.adalovelaceinstitute.org/report/algorithmic-accountability-public-sector/.
[46] Agency for Digital Government (2024), A Common Danish Language Resource, https://en.digst.dk/digital-governance/new-technologies/a-common-danish-language-resource/ (consulté le November 2024).
[53] AI Hub (2024), « AI Data Finder », aihub.or.kr, https://www.aihub.or.kr/aihubdata/data/list.do?currMenu=115&topMenu=100 (consulté le November 2024).
[51] AI Sweden (2024), A shared digital assistant for the public sector, https://www.ai.se/en/project/shared-digital-assistant-public-sector (consulté le October 2024).
[77] AIE (2025), Energy and AI, https://iea.blob.core.windows.net/assets/34eac603-ecf1-464f-b813-2ecceb8f81c2/EnergyandAI.pdf.
[76] AIE (2023), Data Centres and Data Transmission Networks, https://www.iea.org/energy-system/buildings/data-centres-and-data-transmission-networks.
[152] Atwood, S. et K. Bozentko (2023), U.S. Public Assembly on High Risk Artificial Intelligence 2023 Event Report, https://www.cndp.us/wp-content/uploads/2023/12/2023-U.S.-PUBLIC-ASSEMBLY-ON-HIGH-RISK-AI-EVENT-REPORT-final.pdf.
[101] Australia DTA (2024), APS trials generative AI to explore safe and responsible use cases for government.
[107] Banque mondiale (2025), Global Trends in AI Governance: Evolving Country Approaches, https://openknowledge.worldbank.org/entities/publication/a570d81a-0b48-4cac-a3d9-73dff48a8f1a.
[151] BeEU (2024), A citizen’s view of artificial intelligence within the EU, https://belgian-presidency.consilium.europa.eu/media/lzxauu4i/rapport-ia-en-web-v2.pdf.
[4] Berryhill, J. et al. (2019), Hello, World : Artificial intelligence and its use in the public sector, Éditions OCDE, Paris, https://doi.org/10.1787/726fd39d-en.
[133] Brauneis, R. et E. Goodman (2017), « Algorithmic Transparency for the Smart City », SSRN Electronic Journal, https://doi.org/10.2139/ssrn.3012499.
[68] Brizuela, A. et al. (2025), Analysis of the generative AI landscape in the European public sector, Commission européenne, https://op.europa.eu/s/z4XY.
[87] CE (2025), A pioneering AI project awarded for opening Large Language Models to European languages, https://digital-strategy.ec.europa.eu/en/news/pioneering-ai-project-awarded-opening-large-language-models-european-languages (consulté le 10 mars 2025).
[55] CE (2025), Common European Data Spaces, Commission européenne, https://digital-strategy.ec.europa.eu/en/policies/data-spaces.
[67] CE (2025), The AI Continent Action Plan, Commission européenne, https://digital-strategy.ec.europa.eu/en/library/ai-continent-action-plan.
[103] CE (2025), Updated EU AI model contractual clauses, Commission européenne, https://public-buyers-community.ec.europa.eu/communities/procurement-ai/resources/updated-eu-ai-model-contractual-clauses.
[96] CE (2024), Adopt AI study, Commission européenne, https://op.europa.eu/s/z2tg.
[110] CE (2024), GovTech: influencing factors, common requirements and recommendations, Commission européenne, https://interoperable-europe.ec.europa.eu/collection/public-sector-tech-watch/document/govtech-influencing-factors-common-requirements-and-recommendations.
[8] CE (2024), What factors influence perceived artificial intelligence adoption by public managers, Centre commun de recherche de la Commission européenne, https://publications.jrc.ec.europa.eu/repository/bitstream/JRC138684/JRC138684_01.pdf.
[102] CE (2023), EU model contractual AI clauses to pilot in procurements of AI, https://public-buyers-community.ec.europa.eu/communities/procurement-ai/resources/eu-model-contractual-ai-clauses-pilot-procurements-ai.
[126] Chilean Transparency Council (CPLT) (2024), CPLT lanza recomendaciones de transparencia algorítmica en servicios públicos, https://www.consejotransparencia.cl/cplt-lanza-recomendaciones-de-transparencia-algoritmica-en-servicios-publicos/.
[41] CNIL (2023), « Bac à sable » données personnelles : la CNIL lance un appel à projets sur l’intelligence artificielle dans les services publics, https://www.cnil.fr/fr/bac-sable-donnees-personnelles-la-cnil-lance-un-appel-projets-sur-lintelligence-artificielle-dans.
[42] CNIL (2023), « Bac à sable » intelligence artificielle et services publics : la CNIL accompagne 8 projets innovants, https://www.cnil.fr/fr/bac-sable-intelligence-artificielle-et-services-publics-la-cnil-accompagne-8-projets-innovants.
[31] CONPES (2025), CONPES 4144, Política Nacional de Inteligencia Artificial, https://colaboracion.dnp.gov.co/CDT/Conpes/Econ%C3%B3micos/4144.pdf.
[119] Conseil de l’Europe (2024), La Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit, https://www.coe.int/en/web/artificial-intelligence/the-framework-convention-on-artificial-intelligence.
[114] Corrêa, N. et al. (2023), « Worldwide AI ethics: A review of 200 guidelines and recommendations for AI governance », Patterns, vol. 4/10, p. 100857, https://doi.org/10.1016/j.patter.2023.100857.
[127] Cour des comptes des Pays-Bas (2024), Focus on AI in central government, https://english.rekenkamer.nl/publications/reports/2024/10/16/focus-on-ai-in-central-government.
[97] Cover-Kus, H. (2024), UK Government doubles down efforts to deploy AI across the public sector, https://www.techuk.org/resource/uk-government-doubles-down-efforts-to-deploy-ai-across-the-public-sector.html.
[124] Deleware General Assembly (2024), House Bill 333: An Act to Amend Title 29 of the Deleware Code Relating to the Artificial Intelligence Commission, https://legis.delaware.gov/BillDetail/140866.
[60] Digdir (2024), The Norwegian Resource Centre for Sharing and Use of Data, https://www.digdir.no/datadeling/norwegian-resource-centre-sharing-and-use-data/2766 (consulté le November 2024).
[73] Dombo, F. (2023), Public Sector Considerations for Successful Cloud Adoption, https://news.sap.com/africa/2023/05/public-sector-considerations-for-successful-cloud-adoption/.
[132] Fink, K. (2017), « Opening the government’s black boxes: freedom of information and algorithmic accountability », Information, Communication & Society, vol. 21/10, pp. 1453-1471, https://doi.org/10.1080/1369118x.2017.1330418.
[104] Forum économique mondial (2025), AI Procurement Guideline, https://www.weforum.org/publications/ai-procurement-in-a-box/ai-government-procurement-guidelines/ (consulté le 10 mars 2025).
[64] France Élysée (2025), Make France and AI Powerhouse, https://www.elysee.fr/admin/upload/default/0001/17/d9c1462e7337d353f918aac7d654b896b77c5349.pdf.
[70] Frazier, K. (2025), The Dangers of AI Sovereignty, https://www.lawfaremedia.org/article/the-dangers-of-ai-sovereignty.
[137] G7 (2023), Hiroshima Process International Code of Conduct for Advanced AI Systems, https://digital-strategy.ec.europa.eu/fr/library/hiroshima-process-international-code-conduct-advanced-ai-systems.
[136] G7 (2023), Hiroshima Process International Guiding Principles for Advanced AI system, https://digital-strategy.ec.europa.eu/en/library/hiroshima-process-international-guiding-principles-advanced-ai-system.
[92] Gartner (2024), Compare AI Software Spending in the Government Industry, 2023-2027, https://www.gartner.com/en/documents/5318363.
[86] Gob.cl (2025), Latam GPT: Learn about the Latin American AI model developed in Chile, https://www.gob.cl/en/news/latam-gpt-learn-about-the-latin-american-ai-model-developed-in-chile/ (consulté le 10 mars 2025).
[143] Goodman, E. et J. Trehu (2022), AI Audit-Washing and Accountability, https://www.gmfus.org/news/ai-audit-washing-and-accountability.
[36] Gouvernement australien (2024), Evaluation of the whole-of-government trial of Microsoft 365 Copilot, https://www.digital.gov.au/initiatives/copilot-trial.
[146] Gouvernement de l’Espagne (2024), Spain sets up the International Artificial Intelligence Advisory Council, https://www.lamoncloa.gob.es/lang/en/gobierno/news/Paginas/2024/20240621-ai-advisory-council-meeting.aspx.
[109] Gouvernement de l’Espagne (2024), The Government approves the Artificial Intelligence Strategy 2024, https://portal.mineco.gob.es/en-us/comunicacion/Pages/20240514-Gobierno-aprueba-Estrategia-IA-2024.aspx.
[19] Gouvernement de l’Irlande (2025), Guidelines for the Responsible Use of AI in the Public Service, https://www.gov.ie/en/department-of-public-expenditure-ndp-delivery-and-reform/publications/guidelines-for-the-responsible-use-of-ai-in-the-public-service.
[122] Gouvernement de la Corée (2024), A New Chapter in the Age of AI: Basic Act on AI Passed at the National Assembly‘s Plenary Session, https://www.msit.go.kr/eng/bbs/view.do?bbsSeqNo=42&mId=4&mPid=2&nttSeqNo=1071.
[82] Gouvernement de la Grèce (2025), The implementation of the new National Supercomputer « DAIDALOS » and the Data Center at the Lavrio TPP begins - The country acquires one of the most powerful computing systems in Europe, https://mindigital.gr/archives/7331.
[47] Gouvernement de la Grèce (2024), A Blueprint for Greece’s AI Transformation, https://foresight.gov.gr/wp-content/uploads/2024/11/Blueprint_GREECES_AI_TRANSFORMATION.pdf.
[18] Gouvernement de la Nouvelle-Zélande (2025), Public Service AI Framework, https://www.digital.govt.nz/standards-and-guidance/technology-and-architecture/artificial-intelligence/public-service-artificial-intelligence-framework.
[12] Gouvernement de la République dominicaine (2024), Estrategie Nacional de Inteligencia Artificial, https://innovacionrd.gob.do/enia/.
[14] Gouvernement de la Suisse (2025), Strategy Use of AI systems in the Federal Administration, https://www.bk.admin.ch/bk/en/home/digitale-transformation-ikt-lenkung/ikt-vorgaben/strategien-teilstrategien/sb021-strategie-einsatz-von-ki-systemen-in-der-bundesverwaltung.html.
[15] Gouvernement de l’Uruguay (2021), AI Strategy for the Digital Government, https://www.gub.uy/agencia-gobierno-electronico-sociedad-informacion-conocimiento/comunicacion/publicaciones/ia-strategy-english-version/ia-strategy-english-version/ai-strategy-for.
[13] Gouvernement du Canada (2025), AI Strategy for the Federal Public Service, https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/gc-ai-strategy-overview.html.
[6] Gouvernement du Royaume-Uni (2025), A blueprint for modern digital government, https://www.gov.uk/government/publications/a-blueprint-for-modern-digital-government/a-blueprint-for-modern-digital-government-html.
[5] Gouvernement du Royaume-Uni (2025), Prime Minister: I will reshape the state to deliver security for working people, https://www.gov.uk/government/news/prime-minister-i-will-reshape-the-state-to-deliver-security-for-working-people.
[22] Government Digital Service du Royaume-Uni (2025), Artificial Intelligence Playbook for the UK Government, https://www.gov.uk/government/publications/ai-playbook-for-the-uk-government/artificial-intelligence-playbook-for-the-uk-government-html.
[125] GPAI (2024), Algorithmic Transparency in the Public Sector: A state-of-the-art report of algorithmic transparency instruments, Partenariat mondial sur l’intelligence artificielle, https://gpai.ai/projects/responsible-ai/algorithmic-transparency-in-the-public-sector/algorithmic-transparency-in-the-public-sector.pdf.
[140] Gupta, A. et al. (2021), The State of AI Ethics Report (Volume 5), https://arxiv.org/abs/2108.03929.
[79] Hassani, A. et al. (2022), Escaping the Big Data Paradigm with Compact Transformers, https://arxiv.org/abs/2104.05704.
[80] Jones, N. (2025), Where AI Is Now: Smaller, Better, Cheaper Models, https://www.scientificamerican.com/article/ai-report-highlights-smaller-better-cheaper-models.
[69] Komaitis, K., E. Ponce de León et K. Thibaut (2024), The sovereignty trap, https://www.atlanticcouncil.org/blogs/geotech-cues/the-sovereignty-trap.
[142] Lam, M. et al. (2023), « Sociotechnical Audits: Broadening the Algorithm Auditing Lens to Investigate Targeted Advertising », Proceedings of the ACM on Human-Computer Interaction, vol. 7/CSCW2, pp. 1-37, https://doi.org/10.1145/3610209.
[116] Leslie, D. (2019), Understanding artificial intelligence ethics and safety, The Alan Turing Institute, https://doi.org/10.5281/zenodo.3240529.
[63] Letzing, J. (2024), What is ‘sovereign AI’ and why is the concept so appealing (and fraught)?, https://www.weforum.org/stories/2024/11/what-is-sovereign-ai-and-why-is-the-concept-so-appealing-and-fraught/.
[90] Long, D. et B. Magerko (2020), « What is AI Literacy? Competencies and Design Considerations », Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, pp. 1-16, https://doi.org/10.1145/3313831.3376727.
[48] M Saiful Bari, Y. (2024), « ALLaM: Large Language Models for Arabic and English ».
[154] Marcucci, S., U. Kalkar et S. Verhulst (2022), AI Localism in Practice: Examining How Cities Govern AI, https://files.thegovlab.org/ailocalism-in-practice.pdf.
[75] McKinsey (2024), AI power: Expanding data center capacity to meet growing demand, https://www.mckinsey.com/industries/technology-media-and-telecommunications/our-insights/ai-power-expanding-data-center-capacity-to-meet-growing-demand.
[141] Mehta, S., A. Rogers et T. Gilbert (2023), Dynamic Documentation for AI Systems, https://arxiv.org/abs/2303.10854.
[144] METR (2023), Responsible Scaling Policies (RSPs), https://metr.org/blog/2023-09-26-rsp/.
[78] Metz, C. et al. (2025), How A.I. is Changing the Way the World Builds Computers, https://www.nytimes.com/interactive/2025/03/16/technology/ai-data-centers.html.
[100] Monteiro, B., A. Hlacs et P. Boéchat (2024), Public procurement for public sector innovation : Facilitating innovators’ access to innovation procurement, Éditions OCDE, Paris, https://doi.org/10.1787/9aad76b7-en.
[84] Montgomery, C., F. Rossi et J. New (2023), A Policymaker’s Guide to Foundation Models, https://newsroom.ibm.com/Whitepaper-A-Policymakers-Guide-to-Foundation-Models.
[26] Mulgan, G. (2019), Intelligence as an outcome not an input, http://www.nesta.org.uk/blog/intelligence-outcome-not-input.
[135] NIST (2023), AI Risk Management Framework, https://www.nist.gov/itl/ai-risk-management-framework.
[88] Noor, E. et B. Kanitroj (2025), Speaking in Code: Contextualizing Large Language Models in Southeast Asia, https://carnegieendowment.org/research/2025/01/speaking-in-code-contextualizing-large-language-models-in-southeast-asia.
[93] OCDE (2025), « Effectively Managing Investments in Digital Government : An OECD Policy Framework », Documents d’orientation sur la gouvernance publique de l’OCDE, n° 76, Éditions OCDE, Paris, https://doi.org/10.1787/5c324e91-en.
[50] OCDE (2025), Enhancing Access to and Sharing of Data in the Age of Artificial Intelligence (Améliorer l’accès aux données et leur partage à l’ère de l’intelligence artificielle), Éditions OCDE, Paris, https://www.oecd.org/en/publications/enhancing-access-to-and-sharing-of-data-in-the-age-of-artificial-intelligence_23a70dca-en.html.
[120] OCDE (2025), Perspectives de l’OCDE sur la politique de la réglementation 2025, Éditions OCDE, Paris, https://doi.org/10.1787/2f1a3d38-fr.
[74] OCDE (2024), « 2023 OECD Digital Government Index : Results and key findings », Documents d’orientation sur la gouvernance publique de l’OCDE, n° 44, Éditions OCDE, Paris, https://doi.org/10.1787/1a89ed5e-en.
[40] OCDE (2024), « AI, data governance and privacy : Synergies and areas of international co-operation », OECD Artificial Intelligence Papers, n° 22, Éditions OCDE, Paris, https://doi.org/10.1787/2476b1a4-en.
[138] OCDE (2024), « Assessing potential future artificial intelligence risks, benefits and policy imperatives », OECD Artificial Intelligence Papers, n° 27, Éditions OCDE, Paris, https://doi.org/10.1787/3f4e3dfb-en.
[148] OCDE (2024), « Cadre relatif à la gouvernance anticipative des technologies émergentes », n° 165, Éditions OCDE, Paris, https://doi.org/10.1787/a48858ef-fr.
[62] OCDE (2024), « Digital public infrastructure for digital governments », Documents d’orientation sur la gouvernance publique de l’OCDE, n° 68, Éditions OCDE, Paris, https://doi.org/10.1787/ff525dc8-en.
[108] OCDE (2024), Enabling Digital Innovation in Government : The OECD GovTech Policy Framework, OECD Digital Government Studies, Éditions OCDE, Paris, https://doi.org/10.1787/a51eb9b2-en.
[2] OCDE (2024), « Fixing frictions: ‘sludge audits’ around the world : How governments are using behavioural science to reduce psychological burdens in public services », Documents d’orientation sur la gouvernance publique de l’OCDE, n° 48, Éditions OCDE, Paris, https://doi.org/10.1787/5e9bb35c-en.
[54] OCDE (2024), G20 Compendium on Data Access and Sharing Across the Public Sector and with the Private Sector for Public Interest, Éditions OCDE, Paris, https://www.oecd.org/en/publications/g20-compendium-on-data-access-and-sharing-across-the-public-sector-and-with-the-private-sector-for-public-interest_df1031a4-en.html.
[3] OCDE (2024), Governing with Artificial Intelligence : Are governments ready?, Éditions OCDE, Paris, https://doi.org/10.1787/26324bc2-en.
[94] OCDE (2024), OECD Artificial Intelligence Review of Germany, Éditions OCDE, Paris, https://doi.org/10.1787/609808d6-en.
[83] OCDE (2024), Perspectives de l’économie numérique de l’OCDE 2024 (Volume 1) : Cap sur la frontière technologique, Éditions OCDE, Paris, https://doi.org/10.1787/e34abd55-fr.
[106] OCDE (2024), Public procurement, https://www.oecd.org/en/topics/public-procurement.html.
[158] OCDE (2024), Recommandation du Conseil sur l’intelligence artificielle, Éditions OCDE, https://legalinstruments.oecd.org/fr/instruments/OECD-LEGAL-0449.
[99] OCDE (2024), The Digital Transformation of Norway’s Public Sector, OECD Digital Government Studies, Éditions OCDE, Paris, https://doi.org/10.1787/1620e542-en.
[52] OCDE (2023), « 2023 OECD Open, Useful and Re-usable data (OURdata) Index : Results and key findings », Documents d’orientation sur la gouvernance publique de l’OCDE, n° 43, Éditions OCDE, Paris, https://doi.org/10.1787/a37f51c3-en.
[134] OCDE (2023), « Advancing accountability in AI : Governing and managing risks throughout the lifecycle for trustworthy AI », Documents de travail de l’OCDE sur l’économie numérique, n° 349, Éditions OCDE, Paris, https://doi.org/10.1787/2448f04b-en.
[44] OCDE (2023), « AI language models : Technological, socio-economic and policy considerations », Documents de travail de l’OCDE sur l’économie numérique, n° 352, Éditions OCDE, Paris, https://doi.org/10.1787/13d38f92-en.
[139] OCDE (2023), « Common guideposts to promote interoperability in AI risk management », OECD Artificial Intelligence Papers, n° 5, Éditions OCDE, Paris, https://doi.org/10.1787/ba602d18-en.
[130] OCDE (2023), Global Trends in Government Innovation 2023, Examens de l’OCDE sur la gouvernance publique, Éditions OCDE, Paris, https://doi.org/10.1787/0655b570-en.
[118] OCDE (2023), Perspectives de l’emploi de l’OCDE 2023 : Intelligence artificielle et marché du travail, Éditions OCDE, Paris, https://doi.org/10.1787/aae5dba0-fr.
[35] OCDE (2023), « Regulatory sandboxes in artificial intelligence », Documents de travail de l’OCDE sur l’économie numérique, n° 356, Éditions OCDE, Paris, https://doi.org/10.1787/8f80a0e6-en.
[58] OCDE (2022), « Cadre de l’OCDE pour la classification des systèmes d’IA », Documents de travail de l’OCDE sur l’économie numérique, n° 323, Éditions OCDE, Paris, https://doi.org/10.1787/cb6d9eca-en.
[56] OCDE (2022), Going Digital to Advance Data Governance for Growth and Well-being, Éditions OCDE, Paris, https://doi.org/10.1787/e3d783b0-en.
[71] OCDE (2022), « Measuring the environmental impacts of artificial intelligence compute and applications : The AI footprint », Documents de travail de l’OCDE sur l’économie numérique, n° 341, Éditions OCDE, Paris, https://doi.org/10.1787/7babf571-en.
[156] OCDE (2022), « OECD Good Practice Principles for Public Service Design and Delivery in the Digital Age », Documents d’orientation sur la gouvernance publique de l’OCDE, n° 23, Éditions OCDE, Paris, https://doi.org/10.1787/2ade500b-en.
[150] OCDE (2022), OECD Guidelines for Citizen Participation Processes, Examens de l’OCDE sur la gouvernance publique, Éditions OCDE, Paris, https://doi.org/10.1787/f765caf6-en.
[157] OCDE (2021), « Achieving cross-border government innovation: Governing cross-border challenges », Documents d’orientation sur la gouvernance publique de l’OCDE, n° 10, Éditions OCDE, Paris, https://doi.org/10.1787/ddd07e3b-en.
[112] OCDE (2021), G20 survey on Agile approaches to the regulatory governance of innovation : Report for the G20 Digital Economy Task Force, Trieste, Italy, August 2021, Éditions OCDE, Paris, https://doi.org/10.1787/f161916d-en.
[43] OCDE (2021), Good Practice Principles for Data Ethics in the Public Sector - OECD, Éditions OCDE, Paris, https://www.oecd.org/gov/digital-government/good-practice-principles-for-data-ethics-in-the-public-sector.htm (consulté le 14 avril 2025).
[21] OCDE (2021), OECD Report on Public Communication : The Global Context and the Way Forward, Éditions OCDE, Paris, https://doi.org/10.1787/22f8031c-en.
[9] OCDE (2021), Public Sector Innovation Facets: Mission-oriented innovation, Éditions OCDE, https://oecd-opsi.org/publications/facets-mission/.
[121] OCDE (2021), Recommandation du Conseil en faveur d’une gouvernance réglementaire agile permettant de mettre l’innovation à profit, https://legalinstruments.oecd.org/fr/instruments/OECD-LEGAL-0464.
[7] OCDE (2021), The OECD Framework for digital talent and skills in the public sector, Éditions OCDE, Paris, https://doi.org/10.1787/4e7c3f58-en.
[57] OCDE (2020), Axer le secteur public sur les données : marche à suivre, Éditions OCDE, Paris, https://doi.org/10.1787/0090312e-fr.
[149] OCDE (2020), Innovative Citizen Participation and New Democratic Institutions : Catching the Deliberative Wave, Éditions OCDE, Paris, https://doi.org/10.1787/339306da-en.
[59] OCDE (2020), « La gouvernance des données dans le secteur public », dans Axer le secteur public sur les données : marche à suivre, Éditions OCDE, Paris, https://doi.org/10.1787/48842dc1-fr.
[34] OCDE (2019), L’intelligence artificielle dans la société, Éditions OCDE, Paris, https://doi.org/10.1787/b7f8cd16-fr.
[160] OCDE (2019), Recommandation du Conseil sur le leadership et les aptitudes de la fonction publique, Éditions OCDE, https://legalinstruments.oecd.org/fr/instruments/OECD-LEGAL-0445.
[1] OCDE (2017), Systems Approaches to Public Sector Challenges : Working with Change, Éditions OCDE, Paris, https://doi.org/10.1787/9789264279865-en.
[37] OCDE (à paraître), Generative AI Experimentation in Government: A review of current practices, Éditions OCDE.
[38] OCDE (à paraître), Mapping Relevant Data Collection Mechanisms for AI Training.
[30] OCDE/CAF (2022), The Strategic and Responsible Use of Artificial Intelligence in the Public Sector of Latin America and the Caribbean, Examens de l’OCDE sur la gouvernance publique, Éditions OCDE, Paris, https://doi.org/10.1787/1f334543-en.
[29] OCDe/UNESCO (2024), Boîte à outils du G7 sur l’utilisation de l’intelligence artificielle dans le secteur public, Éditions OCDE, Paris, https://doi.org/10.1787/421c1244-en.
[115] OECD.AI (2025), The OECD-African Union AI Dialogue 2.0: From strategy to implementation, https://oecd.ai/en/wonk/the-oecd-african-union-ai-dialogue-2-0-from-strategy-to-implementation.
[20] Pahlka, J. (2024), AI meets the cascade of rigidity, https://www.niskanencenter.org/ai-meets-the-cascade-of-rigidity/.
[49] Parankusham, K., R. Rizk et K. Santosh (2025), LakotaBERT: A Transformer-based Model for Low Resource Lakota Language, https://arxiv.org/abs/2503.18212.
[145] Pehlivan, C. et E. Valín (2023), Spain establishes the EU’s first AI supervisory agency, https://techinsights.linklaters.com/post/102intj/spain-establishes-the-eus-first-ai-supervisory-agency.
[45] Peixoto, T., O. Canuto et L. Jordan (2024), AI and the Future of Government: Unexpected Effects and Critical Challenges, https://www.policycenter.ma/publications/ai-and-future-government-unexpected-effects-and-critical-challenges.
[39] Personal Information Protection Commission of Korea (2023), Policy direction for safe use of personal information in the era of artificial intelligence [translated], https://www.pipc.go.kr/np/cop/bbs/selectBoardArticle.do?bbsId=BS074&mCode=C020010000&nttId=9083.
[117] Policy Lab Digital, Work & Society within the German Federal Ministry of Labour and Social Affairs (2024), Guidelines for the Use of AI in the Administrative Work of Employment and Social Protection Services, https://www.denkfabrik-bmas.de/fileadmin/Downloads/Publikationen/Guidelines_for_the_use_of_ai_in_the_administrative_work_of_employment_and_social_protection_services.pdf.
[155] Ramos, J. (2018), Laboratorio Para La Ciudad (CDMX), https://actionforesight.net/laboratorio-para-la-ciudad-cdmx/.
[66] Ray, T. (2025), Sovereign remedies: Between AI autonomy and control, https://www.atlanticcouncil.org/in-depth-research-reports/issue-brief/sovereign-remedies-between-ai-autonomy-and-control/.
[72] Redapt (2023), On-Premises vs. Cloud for AI Workloads, https://www.redapt.com/blog/on-premises-vs-cloud-for-ai-workloads.
[159] Rudra, S. (2024), OSI Calls Out Meta for its Misleading ’Open Source’ AI Models, https://news.itsfoss.com/osi-meta-ai/.
[24] Ryseff, J., B. De Bruhl et S. Newberry (2024), The Root Causes of Failure for Artificial Intelligence Projects and How They Can Succeed, RAND, https://www.rand.org/pubs/research_reports/RRA2680-1.html.
[25] Ryseff, J. et A. Narayanan (2025), Why AI Projects Fail, https://www.rand.org/pubs/presentations/PTA2680-1.html.
[81] SDAIA (2025), Government Cloud (Deem), https://sdaia.gov.sa/en/Services/Pages/Deem.aspx.
[85] Seger, E. et al. (2024), Open-Sourcing Highly Capable Foundation Models: An Evaluation of Risks, Benefits, and Alternative Methods for Pursuing Open-Source Objectives, https://www.governance.ai/research-paper/open-sourcing-highly-capable-foundation-models.
[91] The Alan Turing Institute (2023), AI Skills for Business Competency Framework, https://www.turing.ac.uk/skills/collaborate/ai-skills-business-framework.
[61] U.S. General Services Administration (2024), AI Capability Maturity - Operational maturity areas, https://coe.gsa.gov/coe/ai-guide-for-government/operational-maturity-areas/index.html#dataops.
[10] UCL IIPP (2019), A Mission-Oriented UK Industrial Strategy, https://www.ucl.ac.uk/bartlett/public-purpose/sites/public-purpose/files/190515_iipp_report_moiis_final_artwork_digital_export.pdf.
[128] UK Committee of Public Accounts (2025), Use of AI in Government, https://committees.parliament.uk/publications/47199/documents/244683/default/.
[147] UK DSIT (2024), Global leaders agree to launch first international network of AI Safety Institutes to boost cooperation of AI, https://www.gov.uk/government/news/global-leaders-agree-to-launch-first-international-network-of-ai-safety-institutes-to-boost-understanding-of-ai.
[27] UK DSIT (2020), Guidelines for AI procurement, https://www.gov.uk/government/publications/guidelines-for-ai-procurement/guidelines-for-ai-procurement.
[98] UK House of Commons (2024), Governance of Artificial Intelligence (AI): Government Response, https://committees.parliament.uk/publications/46145/documents/230927/default/.
[16] UK NAO (2024), Use of articial intelligence in government, https://www.nao.org.uk/wp-content/uploads/2024/03/use-of-artificial-intelligence-in-government.pdf.
[111] UNESCO (2024), Consultation paper on AI regulation: emerging approaches across the world, https://unesdoc.unesco.org/ark:/48223/pf0000390979.
[113] UNESCO (2023), Ethical impact assessment. A tool of the Recommendation on the Ethics of Artificial Intelligence, UNESCO, https://doi.org/10.54678/ytsa7796.
[65] Union africaine (2024), Stratégie continentale en matière d’IA, https://au.int/en/documents/20240809/continental-artificial-intelligence-strategy.
[89] Université de Rome « La Sapienza » (2024), AI made in Italy: here is Minerva, the first family of large language models trained « from scratch » for Italian, https://www.uniroma1.it/en/notizia/ai-made-italy-here-minerva-first-family-large-language-models-trained-scratch-italian (consulté le 10 mars 2025).
[28] US IT Modernization Centers of Excellence (s.d.), AI Guide for Government, https://coe.gsa.gov/ai-guide-for-government.
[17] US OMB (2025), Accelerating Federal Use of AI through Innovation, Governance, and Public Trust, https://www.whitehouse.gov/wp-content/uploads/2025/02/M-25-21-Accelerating-Federal-Use-of-AI-through-Innovation-Governance-and-Public-Trust.pdf.
[105] US OMB (2025), M-25-22 Driving Efficient Acquisition of Artificial Intelligence in Government, White House Office of Management and Budget, https://www.whitehouse.gov/wp-content/uploads/2025/02/M-25-22-Driving-Efficient-Acquisition-of-Artificial-Intelligence-in-Government.pdf.
[131] Valderrama, M., M. Hermosilla et R. Garrido (2023), State of the Evidence: Algorithmic Transparency, https://www.opengovpartnership.org/wp-content/uploads/2023/05/State-of-the-Evidence-Algorithmic-Transparency.pdf (consulté le August 2024).
[95] van Noordt, C., R. Medaglia et L. Tangi (2023), « Policy initiatives for Artificial Intelligence-enabled government: An analysis of national strategies in Europe », Public Policy and Administration, https://doi.org/10.1177/09520767231198411.
[153] Vergne, A. et A. Siu (2025), Global Coalition for an Inclusive AI, https://global-ai-dialogue.org/.
[33] Verhulst, S. et M. Sloane (2020), Realizing the Potential of AI Localism, https://www.project-syndicate.org/commentary/local-regulation-of-artificial-intelligence-uses-by-stefaan-g-verhulst-1-and-mona-sloane-2020-02?barrier=accesspaylog.
[11] Vinnova (2022), Designing missions, https://www.vinnova.se/contentassets/1c94a5c2f72c41cb9e651827f29edc14/designing-missions.pdf?cb=20220311094952.
[32] WAM (2024), Hamdan bin Mohammed appoints 22 Chief AI Officers across government entities in Dubai, https://www.wam.ae/en/article/b3kujwp-hamdan-bin-mohammed-appoints-chief-officers-across.
[123] Werner, J. (2024), New York Governor Signs AI Oversight Bill, https://babl.ai/new-york-governor-signs-ai-oversight-bill.
Notes
Copier le lien de Notes← 2. Voir https://oecd-opsi.org/work-areas/anticipatory-innovation et https://www.oecd.org/en/about/programmes/strategic-foresight.
← 3. Le contexte et l'utilisation des « leviers » dans le présent rapport ne sont pas les mêmes que les « leviers de l'IA » pour les systèmes d'IA généralement abordés par les communautés politiques et techniques spécialisées dans l'IA, qui comprennent les données, les algorithmes et la puissance de calcul (« compute »).
← 4. Voir https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023, https://www.gov.uk/government/publications/seoul-declaration-for-safe-innovative-and-inclusive-ai-ai-seoul-summit-2024, et https://www.elysee.fr/en/emmanuel-macron/2025/02/11/statement-on-inclusive-and-sustainable-artificial-intelligence-for-people-and-the-planet, respectivement.
← 5. Voir (OCDE, 2021[7]) pour d'autres informations pertinentes, notamment sur les compétences et les aptitudes favorables au leadership dans le domaine de l’administration numérique. Voir également la Recommandation de l’OCDE sur le leadership et les aptitudes de la fonction publique (2019[160]) pour comprendre comment les pays peuvent instiller une culture et un leadership portés par des valeurs et s’assurer de disposer de fonctionnaires compétents et efficaces ainsi que de systèmes d’emploi publics réactifs et adaptables.
← 6. L’OCDE soutient les innovations selon des approches axées sur la mission par le biais de son Mission Action Lab, une initiative conjointe de la Direction de la science, de la technologie et de l'innovation (STI), de l’Observatoire sur l'innovation dans le secteur public (OPSI) de la Direction de la gouvernance publique (GOV) et de la Direction de la coopération pour le développement (DCD). Voir https://oecd-missions.org.
← 7. Les sciences comportementales sont une approche interdisciplinaire qui consiste à étudier le comportement humain et à concevoir des stratégies pour le modifier. Voir https://www.oecd.org/en/topics/behavioural-science.
← 8. Voir https://www.apsc.gov.au/initiatives-and-programs/workforce-information/research-analysis-and-publications/state-service/state-service-report-2023-24/fit-future/supporting-safe-and-responsible-use-artificial-intelligence.
← 9. Voir https://www.digmin.dk/digitalisering/mere-om-digitalisering/digital-taskforce-for-kunstig-intelligens-.
← 10. Voir https://www.mitre.org/news-insights/fact-sheet/federal-ai-sandbox et https://www.mitre.org/news-insights/news-release/mitre-establish-new-ai-experimentation-and-prototyping-capability-us.
← 13. Voir https://govtech.justica.gov.pt/en/govtech-justica-english et https://www.ceei.es/legal&justiciatechlab/?r=vxpx6w6j70qr1jstvc6, respectivement.
← 14. Détails fournis dans la stratégie espagnole en matière d'IA pour 2024, https://avance.digital.gob.es/es-es/notasprensa/paginas/20240514-gobierno-aprueba-estrategia-ia-2024.aspx.
← 15. Voir https://www.gov.uk/guidance/repository-of-privacy-enhancing-technologies-pets-use-cases qui présente des cas d'usage de différents pays compilés par le Royaume-Uni.
← 16. Ces pays incluent l’Afrique du Sud, l’Allemagne, le Brésil, le Canada, la Chine, la Corée, l'Égypte, l’Espagne, l’Estonie, la Finlande, la France, la Hongrie, l’Inde, l’Islande, Israël, le Japon, la Lettonie, la Norvège, le Qatar, le Royaume-Uni, Singapour, la Slovénie, la Thaïlande, la Türkiye et le Viet Nam.
← 17. Voir également https://www.ekt.gr/en/news/30774.
← 18. Voir https://www.athenarc.gr/el/news/meltemi-proto-anoihto-megalo-glossiko-montelo-gia-ta-ellinika et https://www.athenarc.gr/en/news/llama-krikri-new-greek-ai-language-model-featured-kathimerini, respectivement.
← 19. Voir https://static.pib.gov.in/WriteReadData/specificdocs/documents/2022/aug/doc202282696201.pdf et https://www.indiatoday.in/technology/news/story/bhashini-ceo-amitabh-nag-talks-about-how-their-ai-tool-is-bridging-indias-language-divide-2646101-2024-12-06 ; informations communiquées par des représentants du gouvernement de l’Inde.
← 20. Voir https://interoperable-europe.ec.europa.eu/collection/open-source-observatory-osor/news/spanish-authorities-release-alia-ai-models.
← 21. https://www.canada.ca/en/treasury-board-secretariat/corporate/reports/2023-2026-data-strategy.html.
← 22. Voir https://www.gov.uk/guidance/national-data-strategy et https://www.dta.gov.au/digital-government-strategy, respectivement.
← 24. Voir https://sbci.gov.ie/information-access/data-sharing-and-governance-act, https://eur-lex.europa.eu/eli/reg/2016/679/oj, https://eur-lex.europa.eu/eli/reg/2023/2854, https://eur-lex.europa.eu/eli/reg/2022/868/oj, https://eur-lex.europa.eu/eli/dir/2019/1024/oj, et https://ec.europa.eu/isa2/eif_en, respectivement.
← 25. L'infrastructure publique numérique (IPN) désigne un ensemble de systèmes numériques communs, sécurisés et interopérables destinés à favoriser un accès généralisé aux services publics et privés.. Ces systèmes constituent le socle numérique commun sur lequel reposent les processus et les services de l’administration, et permettent la transformation numérique de l’administration à l’échelle de la société (OCDE, 2024[62]).
← 27. Dans un modèle, les pondérations sont « les variables ou les valeurs numériques utilisées pour spécifier la façon dont l’entrée (par ex., un texte décrivant une image) est transformée en sortie (à savoir l'image elle-même). Elles sont mises à jour de manière itérative lors de l’entraînement du modèle afin d’améliorer l’efficacité de ce dernier à effectuer les tâches pour lesquelles il est entraîné » (Seger et al., 2024[85]). Le recours à l’expression « open source » dans ce rapport ne signifie pas que ces modèles sont mis à disposition sous une licence open source approuvée par l’Open Source Initiative (OSI), une organisation sans but lucratif qui se veut la gardienne de la Définition de l’Open source (https://opensource.org/osd). L’OSI reproche à certaines entreprises de qualifier leur modèle d’open source alors qu’elles ne fournissant que les pondérations du modèle, sans aucun autre élément tel que les données d’entraînement, le code et les pratiques d’entraînement (Rudra, 2024[159]). Pour certains, ces modèles devraient être qualifiés d’« open weight » (pondération libre d'accès) et non d’« open source » (source libre d'accès).
← 29. https://www.tech.gov.sg/products-and-services/for-government-agencies/productivity-and-marketing/vica.
← 31. https://indiaai.s3.ap-south-1.amazonaws.com/docs/empowering-public-sector-leadership.pdf. Informations fournies par des représentants du gouvernement de l’Inde.
← 32. Voir https://www.ipa.ie/ipa-overview/onelearning.2548.htm et https://www.ypes.gr/ypourgeio-esoterikon-google-enarxi-epimorfotikis-drasis-gia-dimosious-ypallilous-me-thema-tin-techniti-noimosyni, respectivement.
← 34. Voir https://www.canada.ca/en/government/system/digital-government/digital-talent-strategy.html.
← 35. Voir https://chcoc.gov/content/skills-based-hiring-guidance-and-competency-model-artificial-intelligence-work.
← 40. Voir https://www.cio.bund.de/Webs/CIO/DE/digitale-loesungen/datenpolitik/daten-und-ki/daten-und-ki-node.html et https://www.digitale-verwaltung.de/SharedDocs/downloads/Webs/DV/DE/Transformation/akteurssteckbrief-beki.pdf.
← 41. Voir https://www.digital.gov.au/policy/ai/pilot-ai-assurance-framework, https://www.industry.gov.au/publications/australias-artificial-intelligence-ethics-principles/australias-ai-ethics-principles et https://www.digital.gov.au/policy/ai, respectivement.
← 42. Voir https://www.gsa.gov/about-us/newsroom/news-releases/technology-modernization-fund-seeking-proposals-fo-02082024.
← 43. https://www.numerique.gouv.fr/services/guichet-financement-exploitation-valorisation-des-donnees/
← 45. https://public-buyers-community.ec.europa.eu/communities/procurement-ai/resources/eu-model-contractual-ai-clauses-pilot-procurements-ai
← 47. Voir également https://www.chilecompra.cl/2024/11/goblab-uai-presento-nueva-herramienta-para-una-ia-responsable-y-etica.
← 49. Voir https://www.elysee.fr/en/emmanuel-macron/2025/02/11/statement-on-inclusive-and-sustainable-artificial-intelligence-for-people-and-the-planet et https://www.elysee.fr/en/sommet-pour-l-action-sur-l-ia/public-interest-ai.
← 51. Voir https://www.rtu.lv/en/university/for-mass-media/news/open/latvia-establishes-artificial-intelligence-centre et https://digital-skills-jobs.europa.eu/en/latest/news/latvia-establishes-artificial-intelligence-centre.
← 52. Voir https://oecd.ai/ai-principles, https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence, https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai, et https://digital-strategy.ec.europa.eu/en/library/hiroshima-process-international-guiding-principles-advanced-ai-system, respectivement.
← 54. Voir https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023, https://www.gov.uk/government/publications/seoul-declaration-for-safe-innovative-and-inclusive-ai-ai-seoul-summit-2024 et https://www.elysee.fr/en/emmanuel-macron/2025/02/11/statement-on-inclusive-and-sustainable-artificial-intelligence-for-people-and-the-planet, respectivement.
← 56. Voir également https://oecd.ai/en/wonk/how-the-oecd-ai-policy-observatory-has-shaped-colombia-and-latin-americas-approach-to-ai-policy.
← 58. https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/guide-use-generative-ai.html.
← 59. https://www.cio.bund.de/Webs/CIO/DE/digitale-loesungen/kuenstliche_intelligenz/kuenstliche_intelligenz-node.html.
← 60. https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach/white-paper.
← 61. Voir https://hyscaler.com/insights/bahrain-pioneers-ai-regulation et https://www.ita.gov.om/itaportal/Data/SiteImgGallery/2024731125545486/National%20Artificial%20Intelligence%20Policy.pdf, respectivement.
← 62. https://www.whitehouse.gov/wp-content/uploads/2025/02/M-25-21-Accelerating-Federal-Use-of-AI-through-Innovation-Governance-and-Public-Trust.pdf.
← 63. https://research-data.urosario.edu.co/file.xhtml?persistentId=doi:10.34848/YN1CRT/8OHRT0&version=1.0.
← 65. Voir https://github.com/ombegov/2024-Federal-AI-Use-Case-Inventory pour consulter l’inventaire consolidé des cas d’utilisation de l’IA dans les agences fédérales des États-Unis.
← 66. Voir https://www.algoritmospublicos.cl/repositorio, https://odap.fr/inventaire, et https://algoritmes.overheid.nl, respectivement.
← 67. Voir https://algoritmeregister.amsterdam.nl/en/ai-register et https://ai.hel.fi/en/ai-register, respectivement.
← 68. https://stip.oecd.org/stip/interactive-dashboards/policy-initiatives/2023%2Fdata%2FpolicyInitiatives%2F2329.
← 70. https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592.
← 71. Pour plus de précisions, l'indice mondial du droit à l’information (Global Right to Information (RTI) Rating) évalue le cadre juridique du droit à l'information dans chaque pays au regard de différents critères (comme le champ d’application, la procédure de demande ou les voies de recours). Voir https://www.rti-rating.org/country-data.
← 72. Voir également les travaux du Groupe d’experts OECD.AI sur les Risques et les responsabilités en matière d’IA (https://oecd.ai/site/risk-accountability).
← 73. Voir https://www.coe.int/en/web/portal/-/huderia-new-tool-to-assess-the-impact-of-ai-systems-on-human-rights.
← 74. Ce thème est notamment développé dans le rapport (OCDE/CAF, 2022[30]).
← 75. Voir https://www.nist.gov/news-events/news/2024/05/nist-launches-aria-new-program-advance-sociotechnical-testing-and.
← 76. https://www.forgov.qld.gov.au/information-and-communication-technology/qgea-directions-and-guidance/qgea-policies-standards-and-guidelines/foundational-artificial-intelligence-risk-assessment-guideline.
← 77. L’OCDE étudie actuellement la question des seuils de risque de l’IA, ainsi qu’en atteste une consultation publique menée sur ce thème en septembre 2024 (https://oecd.ai/wonk/seeking-your-views-public-consultation-on-risk-thresholds-for-advanced-ai-systems-deadline-10-september).
← 78. Voir https://www.gov.uk/government/publications/emerging-processes-for-frontier-ai-safety/emerging-processes-for-frontier-ai-safety#responsible-capability-scaling.
← 79. Les institutions supérieures de contrôle des finances publiques (ISC) sont les organismes publics chargés de contrôler les recettes et les dépenses publiques. Le contrôle qu’elles exercent sur la gestion des finances publiques et la communication des résultats offre des garanties quant à la bonne utilisation des ressources publiques. Voir https://sirc.idi.no/about/what-are-sais pour de plus amples informations..
← 83. Voir par exemple https://www.aph.gov.au/Parliamentary_Business/Committees/Joint/Public_Accounts_and_Audit/PublicsectoruseofAI/Report et https://committees.parliament.uk/work/6986/governance-of-artificial-intelligence-ai, respectivement.
← 87. https://www.wa.gov.au/organisation/department-of-the-premier-and-cabinet/office-of-digital-government/western-australian-artificial-intelligence-advisory-board.
← 88. Voir https://ised-isde.canada.ca/site/ised/en/canadian-artificial-intelligence-safety-institute, https://digital-strategy.ec.europa.eu/en/policies/ai-office, https://www.economie.gouv.fr/actualites/la-france-se-dote-dun-institut-national-pour-levaluation-et-la-securite-de-lintelligence, https://aisi.go.jp, https://www.aisi.re.kr, https://t.ly/vCtd1, https://www.gov.uk/government/publications/ai-safety-institute-overview, et https://www.nist.gov/aisi, respectivement.
← 89. https://indiaai.gov.in/article/india-takes-the-lead-establishing-the-indiaai-safety-institute-for-responsible-ai-innovation. Informations fournies par des représentants du gouvernement de l’Inde.
← 90. https://www.etalab.gouv.fr/ia-decouvrez-et-participez-au-projet-piaf-pour-des-ia-francophones.
← 91. https://ecastnetwork.org et https://issues.org/thinking-like-citizen-participatory-technology-assessment-weller-govani-farooque.
← 92. https://digital-strategy.ec.europa.eu/en/consultations/ai-act-have-your-say-trustworthy-general-purpose-ai.
← 93. https://digital-strategy.ec.europa.eu/en/news/ai-act-participate-drawing-first-general-purpose-ai-code-practice.
← 94. L’OCDE a publié une série de rapports sur la collaboration transfrontières au service de l’innovation dans l’administration, qui abordent des problématiques communes et présentent des exemples de collaborations qui ont porté leurs fruits dans divers domaines, dont l’IA. Voir https://cross-border.oecd-opsi.org.