Ce chapitre synthétise 200 cas d'utilisation de l'IA dans 11 fonctions gouvernementales. Il conclut que l'utilisation de l'IA est une priorité pour les gouvernements, mais que son adoption est fragmentée et inégale. Son utilisation se concentre sur les services destinés au public et les opérations internes, avec moins d'exemples dans l'élaboration des politiques. Les gouvernements recherchent la productivité, la réactivité et la responsabilité, mais les efforts visant à autonomiser les acteurs externes sont limités. La maturité varie selon les fonctions et les technologies, avec des systèmes basés sur des règles établies de longue date, un apprentissage automatique sélectif et une IA générative limitée. Chaque cas d'utilisation peut présenter des risques opérationnels, éthiques, de résistance ou d'exclusion s'il n'est pas fiable, ce qui souligne la nécessité de disposer de bases de données solides et d'une gouvernance cohérente.
Gouverner avec l’intelligence artificielle
2. Tendances et premiers enseignements tirés de l’utilisation de l’IA dans les différentes fonctions de l’État
Copier le lien de 2. Tendances et premiers enseignements tirés de l’utilisation de l’IA dans les différentes fonctions de l’ÉtatDescription
Principaux messages
Copier le lien de Principaux messagesL’OCDE a analysé 200 cas d’utilisation dans le cadre de 11 fonctions de l’État. Il en ressort que si l’IA constitue une priorité pour la plupart des gouvernements, les efforts déployés en la matière restent peu systématiques.
Cette analyse a permis de mieux cerner l’utilisation actuelle de l’IA dans l’action publique et d’identifier plusieurs tendances transversales. À cet égard, les principales tendances observées sont les suivantes :
L’utilisation de l’IA varie fortement selon les fonctions de l’État
Son utilisation est particulièrement marquée dans les services destinés au public ainsi que dans les opérations internes
Les gouvernements recourent à l’IA pour en tirer divers bénéfices potentiels
Certaines fonctions de l’État sont plus avancées que d’autres en matière de gouvernance et d’adoption de l’IA
Chaque fonction de l’État évolue dans un contexte spécifique et présente des besoins particuliers.
L’OCDE a constaté que chacun des 200 cas d’utilisation étudiés pouvait présenter un ou plusieurs types de risques si l’IA n’est pas conçue et utilisée à bon escient (risques opérationnels, risques éthiques, risques liés au rejet par le public ou risques d’exclusion).
Or ces risques varient selon les utilisations et les fonctions de l’État. Il est donc essentiel d’identifier les principaux facteurs de risque dans chaque cas et chaque domaine d’application.
Si les pouvoirs publics sont attentifs à plusieurs risques liés à l’IA, certains risques sont encore relativement sous-estimés.
Analyse par l’OCDE de 200 cas d’utilisation dans 11 fonctions de l’État
Copier le lien de Analyse par l’OCDE de 200 cas d’utilisation dans 11 fonctions de l’ÉtatDans ses travaux transversaux les plus récents sur l’utilisation de l’IA dans les administrations, l’OCDE (2024[1]) a souligné la nécessité de collecter, documenter et analyser de manière systématique les cas d’utilisation, afin de suivre l'évolution des choix en matière de politiques publiques dans les différents pays. L’OCDE a également signalé que des données plus nombreuses et plus solides sur l’impact de l’IA dans les administrations permettraient d’assurer une utilisation optimale de cette technologie. Un accès facilité à ces données, ainsi qu’aux informations sur les politiques publiques, les pratiques et l’utilisation de l’IA dans les administrations, pourrait favoriser des avancées vers l’adoption d’une IA digne de confiance et encourager un dialogue structuré ainsi que des échanges entre les pays. De façon générale, il apparaît nécessaire d’adopter une approche systémique et globale afin de maximiser la valeur de l’IA dans les administrations, ce qui suppose de mettre en place à la fois des leviers, des garde-fous et des mécanismes de participation.
Dans cette optique, ce chapitre s’appuie sur les recherches de l’OCDE ainsi que sur d’autres travaux pertinents afin de mieux cerner l’état actuel de l’utilisation de l’IA dans les administrations et d’en dégager les principales tendances. Ainsi, 200 cas d’utilisation de l’IA couvrant 11 fonctions de l’État y sont analysés et synthétisés. Ces cas sont présentés dans le Tableau 2.1 et examinés en détail au Chapitre 51. Ils ont été répertoriés suite à des recherches documentaires, des réunions de l’OCDE, des échanges avec des agents publics participant aux groupes de travail et aux réseaux de l’OCDE concernés, et grâce aux collectes permanentes de données effectuées par l’Observatoire de l’OCDE sur l’innovation dans le secteur public (OPSI) et l’Observatoire OCDE des politiques relatives à l’IA (OECD.AI)2.
Compte tenu de la méthodologie utilisée pour élaborer ce rapport, les constats présentés dans ce chapitre ne sauraient être généralisés à l’ensemble des initiatives en matière d’IA dans les administrations. L’adoption de l’IA varie en effet selon les pays, en fonction des contextes nationaux et des niveaux de préparation. Néanmoins, les résultats obtenus correspondent à des observations étayées par des pratiques concrètes, par les travaux de recherche les plus récents et par les points de vue actuels des décideurs. En les analysant, le chapitre vise à dresser un état des lieux des activités en cours et de leurs caractéristiques, tout en mettant en évidence les manques éventuels, qu’il s’agisse de potentiels encore inexploités ou de domaines nécessitant des recherches supplémentaires.
Dans le cadre de l’Observatoire OCDE des politiques relatives à l’IA, l’OCDE mettra en place dans les mois à venir un référentiel mondial actualisé regroupant les initiatives et études de cas pertinentes.
Tableau 2.1. Fonctions de l’État analysées dans le cadre du rapport Gouverner avec l’IA
Copier le lien de Tableau 2.1. Fonctions de l’État analysées dans le cadre du rapport <em>Gouverner avec l’IA</em>|
Catégorie |
Fonction |
Champ de l’analyse |
|---|---|---|
|
Fonctions de pilotage des politiques publiques |
Administration fiscale |
S’appuyant sur les recherches de l’OCDE ainsi que sur des travaux externes, des experts de l’OCDE dans chaque fonction de l’État ont analysé 200 cas d’utilisation afin de déterminer :
|
|
Gestion des finances publiques |
||
|
Conception et prestation de l’activité réglementaire |
||
|
Processus essentiels de l’action publique |
Réforme de la fonction publique |
|
|
Passation de marchés publics |
||
|
Lutte contre la corruption et promotion de l’intégrité publique |
||
|
Évaluation des politiques publiques |
||
|
Participation civique et gouvernement ouvert |
||
|
Services publics et fonctions judiciaires |
Conception et prestation des services publics |
|
|
Maintien de l’ordre et gestion des risques de catastrophe |
||
|
Administration de la justice et accès à celle-ci |
L’IA constitue une priorité mais les efforts demeurent peu systémiques
Copier le lien de L’IA constitue une priorité mais les efforts demeurent peu systémiquesAu total, l’Union européenne (UE) et 48 pays ont adhéré aux Principes de l’OCDE sur l’IA (Tableau 2.2), s’engageant ainsi à promouvoir la conception, le développement, le déploiement et l’utilisation d’une IA digne de confiance, y compris dans le secteur public. L’OCDE assure le suivi et rend compte de la mise en œuvre de ces principes au fil du temps (2023[2] ; 2021[3]). Les résultats indiquent toutefois que l’État porte moins d’attention à l’utilisation de l’IA dans l’action publique qu’aux efforts déployés pour promouvoir une IA digne de confiance dans l’ensemble de l’économie et de la société.
Tableau 2.2. Principes de l’OCDE sur l’IA
Copier le lien de Tableau 2.2. Principes de l’OCDE sur l’IA|
Principe |
Description |
|
|---|---|---|
|
Principes fondés sur des valeurs |
Croissance inclusive, développement durable et bien-être (Principe 1.1) |
Souligne le potentiel de contribution à la croissance et la prospérité qu’aurait une IA digne de confiance à différents niveaux – individuel, sociétal, planétaire – et de faire progresser les objectifs de développement mondiaux. |
|
Respect de l’état de droit, des droits humains et des valeurs démocratiques, y compris de l’équité et de la vie privée (Principe 1.2) |
Les systèmes d’IA devraient être conçus de manière à respecter l’état de droit, les droits humains, les valeurs démocratiques et la diversité, et devraient instituer des garanties appropriées afin de tendre vers une société juste et équitable. |
|
|
Transparence et explicabilité (Principe 1.3) |
Transparence et divulgation responsable d’informations concernant les systèmes d’IA afin de garantir que les utilisateurs sont en mesure de comprendre et de remettre en question les résultats produits par les systèmes d’IA. |
|
|
Robustesse, sûreté et sécurité (Principe 1.4) |
Les systèmes d’IA devraient être robustes, sûrs et sécurisés tout au long de leur cycle de vie et les risques potentiels devraient être en permanence évalués et gérés. |
|
|
Responsabilité (Principe 1.5) |
Les organismes et individus amenés à développer, déployer et utiliser les systèmes d’IA devraient être tenus responsables de leur bon fonctionnement, en adéquation avec les principes de l’OCDE pour l’IA fondés sur des valeurs. |
|
|
Recommandations pour les décideurs |
Investir dans la recherche et le développement en matière d’IA (Principe 2.1) |
Les gouvernements devraient faciliter l’investissement public et privé dans la recherche et le développement afin de stimuler l’innovation dans l’IA digne de confiance. |
|
Favoriser l’instauration d’un écosystème inclusif propice à l’IA (Principe 2.2) |
Les pouvoirs publics devraient favorisent l’émergence d’écosystèmes d’IA accessibles dotés d’infrastructure et de technologies numériques ainsi que de mécanismes de partage de données et de connaissances, tout en veillant à la qualité de ces informations. |
|
|
Façonner un cadre d’action et de gouvernance interopérable favorable à l’IA (Principe 2.3) |
Les pouvoirs publics devraient mettre en place un cadre politico-légal à même de permettre le déploiement de systèmes d’IA dignes de confiance. |
|
|
Renforcer les capacités humaines et préparer la transformation du marché du travail (Principe 2.4) |
Les pouvoirs publics devraient doter les populations des compétences nécessaires pour utiliser l’IA et soutenir les travailleurs afin de permettre une transition équitable. |
|
|
Favoriser la coopération internationale au service d’une IA digne de confiance (Principe 2.5) |
Les pouvoirs publics devraient coopérer au niveau international et entre les différents secteurs d’activité afin de partager les connaissances, de développer des standards techniques et de progresser vers une approche responsable en matière d’IA. |
Source : https://oecd.ai/fr/ai-principles.
Les pouvoirs publics sont en train de conscience du potentiel de l’IA dans les administrations publiques et en ont fait une priorité stratégique. La quasi-totalité des pays membres de l’OCDE ont adopté des stratégies et des programmes en matière d’IA qui définissent une vision et une approche globales pour l’utilisation de cette technologie dans l’administration. Dans la plupart des cas, ces éléments s’inscrivent dans des stratégies nationales plus larges en matière d’IA. Certains pays comme le Canada (2025[4]), la Suisse (2025[5]) ou l’Uruguay (2021[6]) ont toutefois élaboré des stratégies spécifiques. De nombreux gouvernements cherchent également à traduire ces stratégies en actions concrètes au moyen de politiques et d’initiatives transversales ou sectorielles. Ces efforts sont abordés en détail au Chapitre 4. Par ailleurs, l’adoption de l’IA passe de plus en plus par des expérimentations directes et, de manière croissante, par des développements sur mesure.
Des progrès ont été réalisés depuis que l’OCDE a commencé à s’intéresser à l’utilisation de l’IA dans l’administration en 2019. Néanmoins, les efforts demeurent limités et peu systématiques. Le potentiel de l’IA dans l’administration est considérable, mais difficile à exploiter pleinement. Dans deux tiers des pays membres de l’OCDE, les gouvernements ont amorcé l’utilisation de l’IA pour améliorer l’efficacité interne en optimisant les processus. Toutefois, des progrès supplémentaires sont nécessaires, non seulement pour mettre l’IA au service d’autres finalités telles que l’amélioration des politiques publiques, mais aussi pour bâtir les composantes fondamentales nécessaires à son essor (OCDE, 2024[1]). L’examen des cas d’utilisation met en évidence une multiplication des outils d’IA, dont la mise en œuvre reste souvent fragmentée. En règle générale, ces initiatives ne s’accompagnent pas de mécanismes de gouvernance transversaux qui permettraient de coordonner les actions entre les secteurs ou dans l’ensemble de l’administration, de mutualiser les enseignements et de tirer parti de leur mise en œuvre. Par conséquent, les perspectives d’apprentissage collectif, de mise à l’échelle et d’impact demeurent limitées. La mise en place de cadres de gouvernance solides permettrait de garantir un déploiement cohérent, efficace et responsable des systèmes d’IA, en phase avec les priorités stratégiques et les valeurs de service public.
Les sections suivantes s’attachent à dresser un état des lieux de l’utilisation de l’IA dans l’administration, en mettant en évidence les principales tendances et constantes observées dans les services pionniers. L'objectif est d’examiner dans quelle mesure les pouvoirs publics traduisent les principes en actions concrètes en matière d’IA, les résultats qu’ils obtiennent, les effets produits ainsi que les limites auxquelles ils se heurtent.
Tendances générales dans les cas d’utilisation de l’IA par les pouvoirs publics
Copier le lien de Tendances générales dans les cas d’utilisation de l’IA par les pouvoirs publicsL’utilisation de l’IA varie fortement selon les fonctions de l’État
L’édition 2023 de l’Indice de l’administration numérique de l’OCDE ([7]) indique que si certains pays ont déployé un large éventail d’initiatives pour renforcer leurs capacités à recourir à l’IA au sein de l’administration, la mise en œuvre reste un défi pour la plupart d’entre eux. L’examen approfondi des cas d’utilisation analysés dans ce rapport révèle, selon l’OCDE, que les efforts des pouvoirs publics en matière d’IA se concentreraient principalement sur la conception et la prestation des services publics, la participation civique et le gouvernement ouvert, ainsi que l’administration de la justice et l’accès à celle-ci. À l'inverse, seules quelques initiatives ont été recensées dans des domaines tels que l’évaluation des politiques publiques (Graphique 2.1).
Graphique 2.1. Les cas d’utilisation se concentrent principalement sur les services publics, la participation civique et la justice
Copier le lien de Graphique 2.1. Les cas d’utilisation se concentrent principalement sur les services publics, la participation civique et la justice
Source : Analyse réalisée par l’OCDE à partir des cas d’utilisation recensés.
Plusieurs explications peuvent être avancées pour expliquer cette répartition :
La conception et la prestation des services publics s’étendent horizontalement à de nombreux types d’organisations et domaines d’action, ce qui en fait une fonction plus représentée en termes de cas d’utilisation que d’autres fonctions plus verticales de l’administration, comme l’administration fiscale.
La prépondérance de la participation civique et du gouvernement ouvert peut s’expliquer en partie par le fait que cette fonction échappe à de nombreux risques (Chapitre 1) et défis (Chapitre 3) rencontrés dans d’autres domaines. Par exemple, les préoccupations relatives à l’accès aux données et à leur sécurité ne s’appliquent généralement pas à cette fonction, puisque l'objectif des initiatives qu’elle englobe est avant tout de recueillir des informations sur des questions et des problèmes qui sont de nature publique. En outre, les équipes administratives impliquées dans la participation civique comptent souvent parmi les groupes les plus innovants au sein de la fonction publique et peuvent être, de ce fait, plus enclines à adopter de nouvelles approches en matière de technologie.
En matière de politiques publiques, les fonctions les plus représentées sont généralement celles qui sont orientées vers les usagers, ce qui suggère une concentration dans les domaines à forte visibilité. Ce phénomène peut s’expliquer par des attentes accrues de la part de la population et par la volonté des responsables politiques et gouvernementaux de démontrer de manière tangible les résultats de leur action.
Certaines fonctions se heurtent à des obstacles ou à des contraintes spécifiques, comme les règles strictes d’accès et de partage des données dans l’administration fiscale, ou encore les exigences de traçabilité rigoureuses dans le domaine de l’intégrité publique.
Certaines fonctions semblent plus avancées que d’autres en matière de préparation à l’IA, notamment en ce qui concerne les fondements nécessaires à l’utilisation de cette technologie, tels que la disponibilité de données suffisantes et de qualité. Cet aspect sera développé plus loin.
Dans certains cas, les structures et processus déjà en place ne peuvent pas être facilement remplacés ou complétés par des systèmes d’IA.
La fréquence d’utilisation de l’IA dans le domaine de la justice et les fonctions connexes liées au maintien de l’ordre est particulièrement intéressante. En règle générale, l’OCDE (2024[1]) a recommandé aux gouvernements de commencer par les usages les plus simples et prometteurs de l’IA, c’est-à-dire ceux qui présentent à la fois un fort potentiel de bénéfices et un faible niveau de risque. Or, l'utilisation de l’IA dans le domaine de la justice et le maintien de l’ordre peut certes générer des bénéfices importants, mais elle comporte également des risques élevés. L’une des raisons de la présence marquée de cas d’utilisation dans ces domaines tient peut-être à l’existence de données plus complètes et mieux structurées. Une autre explication possible réside dans le volume considérable de tâches à accomplir dans ces fonctions. Dans le cas de l’administration de la justice et l’accès à celle-ci, les systèmes judiciaires du monde entier fonctionnent souvent avec des ressources très limitées, que ce soit en termes de budget ou d’effectifs, alors même que le nombre d’affaires ne cesse de croître (Harvard Kennedy School, 2023[8] ; Université de Columbia, 2020[9]). Ce déséquilibre chronique entraîne des retards importants dans de nombreuses juridictions, ce qui a poussé les responsables des tribunaux à chercher de nouvelles technologies susceptibles d’accroître la productivité et de résorber les retards. Cela pourrait expliquer pourquoi la justice présente davantage de cas d’utilisation de l’IA liés aux opérations internes que d’autres fonctions de l’État (Graphique 2.3).
Une autre explication de cette répartition tient peut-être aux données disponibles, l’OCDE ayant tendance à recenser — ou les gouvernements à transmettre — davantage d’informations sur certaines fonctions que sur d’autres. Cet effet semble toutefois quelque peu atténué par les vérifications réalisées dans le cadre des discussions de l’OCDE et par les examens du Groupe de travail des Hauts responsables de l’administration numérique de l’OCDE (E-Leaders), ainsi que par les comparaisons avec les résultats issus de bases de données plus vastes. Concernant ces dernières, les données collectées pour le présent rapport sont en ligne avec les tendances observées dans l’UE ainsi qu’en Amérique latine et dans les Caraïbes (ALC), telles qu’elles sont recensées par l’Observatoire technologique du secteur public de la Commission européenne (CE) (2025[10]) et la base de données « Systèmes d’IA dans le secteur public dans la région ALC » (Muñoz-Cadena et al., 2025[11]) (Graphique 2.2). Les trois principales fonctions identifiées dans le référentiel de l’UE, qui recensait près de 1 500 utilisations de l’IA au 31 mars 2025, sont les services publics généraux, les affaires économiques, et l’ordre public et la sécurité3. La catégorie « ordre public et sécurité » comprend à la fois les cas d’utilisation liés au maintien de l’ordre et ceux relatifs à l’administration de la justice. La catégorie « affaires économiques » se compose principalement de cas d’utilisation dans des secteurs tels que les transports, l’agriculture et l’énergie. Environ 70 % des cas d’utilisation de l’IA dans ce domaine concernent la réglementation, les services publics ciblés et les interactions. La région ALC présente une tendance comparable dans les trois principales fonctions identifiées au sein de son référentiel, qui recensait environ 700 systèmes d’IA au moment de sa mise à jour le 19 mars 2025.
Graphique 2.2. L’UE et la région Amérique latine et Caraïbes suivent une tendance similaire, d’après l’échantillon de cas d’utilisation de l’IA collectés pour ce rapport
Copier le lien de Graphique 2.2. L’UE et la région Amérique latine et Caraïbes suivent une tendance similaire, d’après l’échantillon de cas d’utilisation de l’IA collectés pour ce rapportPourcentages de cas d’utilisation classés selon la Classification des fonctions des administrations publiques des Nations unies
Un dernier facteur susceptible d’influer sur les résultats tient à une variante de « l’effet IA » : « dès que les chercheurs [en IA] atteignent un jalon longtemps considéré comme une manifestation d’une véritable intelligence artificielle — par exemple battre un humain aux échecs — celui-ci est aussitôt considéré comme acquis et n’est plus perçu comme une preuve d’IA à proprement parler » (Bailey, 2016[12]). Lors des échanges avec le groupe de travail E-Leaders, certains représentants ont suggéré que les applications classiques et ciblées de l’IA sont peut-être devenues si courantes ou intégrées qu’elles ne sont plus déclarées ni relevées lors des exercices de collecte de données. Ce phénomène pourrait être plus marqué dans les domaines où ces systèmes sont utilisés de longue date, comme l’administration fiscale, ce qui expliquerait leur moindre représentation dans les initiatives recensées. Il est difficile d'évaluer l’ampleur de ce phénomène ; l’analyse effectuée dans le cadre de ce rapport a toutefois permis d’identifier et de prendre en compte de nombreux cas de ce type.
Son utilisation est particulièrement marquée dans les services destinés au public ainsi que dans les opérations internes
Dans les 11 fonctions essentielles couvertes par ce rapport, les administrations publiques recourent à l’IA pour quatre types d’activités : la prestation de services destinés au public, les opérations internes, les activités de contrôle interne et externe, ainsi que le soutien à l’élaboration des politiques publiques. L’utilisation de l’IA est le plus fréquent dans la prestation de services destinés au public. Les activités liées aux opérations internes arrivent juste derrière (Graphique 2.3). Les activités de contrôle interne et externe ainsi que le soutien à l’élaboration des politiques publiques sont moins représentés. Cela n’a rien d’étonnant, dans la mesure où la prestation de services et les opérations internes constituent l’essentiel de l’activité des administrations publiques. Les activités de contrôle jouent un rôle important, mais elles se cantonnent généralement à des services ou des équipes spécifiques. L’utilisation de l’IA dans les activités d’élaboration des politiques publiques reste également peu répandue. Ce constat rejoint les résultats précédents de l’Indice de l’administration numérique de l’OCDE (2024[7]), qui soulignaient déjà la nécessité pour les gouvernements d’intensifier leurs efforts dans ce domaine. Nombre d’entre eux restent prudents en la matière ou ne disposent pas des compétences requises pour intégrer l’IA dans leurs processus décisionnels.
La place de l’IA dans les activités de l’État varie en fonction de la nature de chaque fonction. Dans la fonction de conception et de prestation des services publics, la plupart des applications de l’IA concernent naturellement les interactions entre les administrations et les usagers, bien que certains cas d’utilisation visent également les opérations internes liées à la conception ou à la prestation des services publics. Le fait que près de trois quarts des exemples recensés dans le domaine de la justice (16 sur 25, sachant qu’un cas peut relever de plusieurs activités) soient liés aux services montre que cette fonction a mis l’accent à la fois sur la réactivité à l’égard des usagers et sur une meilleure efficacité de ses opérations internes. Ce choix peut être influencé par des attentes sociales accrues, la pression pour réduire les retards dans le traitement des affaires et la nécessité de gérer des ressources limitées. Des fonctions telles que la participation civique ou la conception et la prestation de l’activité réglementaire regroupent la majorité des cas d’utilisation liés aux activités d’élaboration des politiques publiques. Ces cas incluent, par exemple, le traitement des données probantes et des contributions des parties prenantes dans le cadre de la formulation des politiques publiques, ainsi que diverses applications d’aide à la décision fondées sur l’analyse, la simulation ou la prévision.
Graphique 2.3. Cas d’utilisation de l’IA par fonction essentielle et activité de l’État
Copier le lien de Graphique 2.3. Cas d’utilisation de l’IA par fonction essentielle et activité de l’État
Note : Les quatre activités représentées dans ce graphique ne s’excluent pas mutuellement (un même cas d'utilisation de l’IA peut par exemple viser à la fois l’amélioration des opérations internes et la prestation de services). La somme des activités est donc supérieure au nombre total de cas d’utilisation.
Source : Analyse réalisée par l’OCDE à partir des cas d’utilisation recensés.
Ces résultats sont globalement cohérents avec ceux issus des bases de données de l’UE (2025[10]) et de la région ALC (2025[11]) Bien qu’il n’existe pas de méthodologie uniforme pour classer les activités de l’État, ces bases de données et celles de l’OCDE révèlent des tendances similaires, en particulier dans le domaine des services. Dans les bases de données de l’UE et de la région ALC, les cas d’utilisation sont classés par type d’activités de l’État (Graphique 2.4). La catégorie « services publics et participation » y occupe une place importante, arrivant en tête dans l’UE et au deuxième rang en Amérique latine et dans les Caraïbes. Toutefois, dans cette région, la majorité des cas d’utilisation sont classés dans la catégorie des activités d’« application de la réglementation », qui inclut notamment l’application prédictive, l’enregistrement et la certification de données, la reconnaissance intelligente ainsi que le soutien aux inspections. Ces processus correspondent généralement aux catégories « opérations internes » et « contrôle (interne et externe) » de l’OCDE. Autrement dit, la catégorie « gestion interne » des bases de données de l’UE et de la région ALC, qui regroupe généralement peu de cas, n’est pas la seule à contenir des cas d’utilisation que l’OCDE rattacherait aux « opérations internes ». Il n’est donc pas possible de conclure que l’ensemble de données de l’OCDE contient une proportion plus élevée de cas relevant des opérations internes de l’État que les ensembles de données de l’UE ou de l’Amérique latine et des Caraïbes. Enfin, il convient de souligner que les processus regroupés dans la catégorie « analyse, suivi et recherche réglementaire » des bases de données de l’UE et de la région ALC correspondent généralement à la catégorie « élaboration des politiques publiques » de l’OCDE et représentent une part comparable (environ 20 à 30 % de l’ensemble des cas d'utilisation).
Graphique 2.4. Les services publics et la participation représentent une part importante des cas d’utilisation liés aux processus de l’administration dans l’UE et dans la région Amérique latine et Caraïbes
Copier le lien de Graphique 2.4. Les services publics et la participation représentent une part importante des cas d’utilisation liés aux processus de l’administration dans l’UE et dans la région Amérique latine et CaraïbesPourcentages de cas d’utilisation classés selon la manière dont la technologie contribue aux décisions et à la mise en œuvre de l’action publique
Les gouvernements recourent à l’IA pour en tirer divers bénéfices potentiels
Les cas d’utilisation analysés par l’OCDE sont susceptibles de contribuer à l’ensemble des bénéfices de l’IA présentés au Chapitre 1, la plupart pouvant en générer plusieurs à la fois. Toutefois, certains bénéfices retiennent davantage l’attention des pouvoirs publics (Graphique 2.5) :
Environ six cas sur dix visent à automatiser, rationaliser, adapter et personnaliser les processus et les services, notamment dans les domaines de la justice, des services publics, de la participation civique et de la conception et de la prestation de l’activité réglementaire.
Près de la moitié des cas visent à améliorer la prise de décision, l’analyse des situations actuelles et les prévisions, la plupart étant concentrés dans les services publics, la réglementation et la participation civique.
Environ un tiers des cas présentent un potentiel d’amélioration de la redevabilité et de la détection des anomalies, principalement dans le maintien de l'ordre et la gestion des risques de catastrophe, la participation civique, la lutte contre la corruption et la promotion de l’intégrité publique, la passation de marchés publics, et la réglementation.
Un nombre limité de cas sont susceptibles de créer des opportunités pour les parties prenantes externes, telles que les usagers, les organisations de la société civile et les entreprises, notamment dans les domaines de la participation civique, de l’accès à la justice et de la gestion des risques de catastrophe.
Le peu d’attention accordée à la création d’opportunités pour les parties prenantes externes, à travers une IA, envisagée comme un bien commun, apparaît comme une lacune potentielle. Des experts en IA ont souligné l’importance de ce type d’autonomisation et estimé que les gouvernements devraient aller plus loin dans cette direction (OCDE, 2024[13]). Il est toutefois possible que ces efforts soient plus marqués dans des secteurs non couverts par ce rapport (par exemple l’agriculture ou l’éducation). Même si ce type de bénéfices est moins tangible pour les pouvoirs publics, il peut néanmoins contribuer à accroître la confiance dans l’administration et même générer des retombées économiques.
Graphique 2.5. Bénéfices potentiels des cas d’utilisation de l’IA dans les différentes fonctions de l’État
Copier le lien de Graphique 2.5. Bénéfices potentiels des cas d’utilisation de l’IA dans les différentes fonctions de l’ÉtatPourcentage de cas d’utilisation pour la fonction correspondante
Note : Les bénéfices potentiels représentés dans ce graphique ne s’excluent pas mutuellement (un cas d’utilisation peut potentiellement générer plusieurs types de bénéfices). La somme des bénéfices potentiels est donc supérieure au nombre total de cas d’utilisation.
Source : Analyse réalisée par l’OCDE à partir des cas d’utilisation recensés.
L’examen des bénéfices concrets dans les quatre types d’activités mentionnées plus haut permet de mieux cerner les gains directs que les gouvernements cherchent à obtenir en recourant à l’IA (comme le montre le Graphique 2.6). Les sections suivantes présentent ces bénéfices et illustrent les tendances observées à l’aide d’exemples concrets de cas d’utilisation.
Graphique 2.6. Bénéfices concrets des cas d’utilisation de l’IA
Copier le lien de Graphique 2.6. Bénéfices concrets des cas d’utilisation de l’IA
Note : Les bénéfices potentiels représentés dans ce graphique ne s’excluent pas mutuellement (un cas d’utilisation peut potentiellement générer plusieurs types de bénéfices). La somme des bénéfices potentiels est donc supérieure au nombre total de cas d’utilisation.
Source : Analyse réalisée par l’OCDE à partir des cas d’utilisation recensés.
Automatisation, rationalisation et personnalisation des processus et des services
Environ un tiers (31 %) des cas d'utilisation analysés visent à améliorer la productivité dans les tâches analytiques. Dans une moindre mesure, 15 % des cas correspondent aux efforts des pouvoirs publics pour recourir à l’IA afin de personnaliser les services et mieux répondre aux besoins spécifiques des usagers. Cette adoption relativement limitée de l’IA à des fins de personnalisation peut s’expliquer en partie par les limites de la gouvernance des données ou par les contraintes liées au volume considérable de données à caractère personnel nécessaires à ces applications (voir le Chapitre 3 sur les défis de mise en œuvre). Il s’agit là d’une lacune qui mérite une analyse plus approfondie. Fait intéressant, l’automatisation des tâches routinières ne représente que 9 % des cas d’utilisation recensés. Cela va à l’encontre de l’idée reçue selon laquelle l’IA serait utilisée principalement pour automatiser des tâches répétitives nécessitant peu de réflexion analytique (Graphique 2.6). Même si une approche fondée sur l’examen des cas ne se prête pas à une généralisation à toutes les utilisations de l’IA dans l’administration, les résultats suggèrent un possible recentrage de l’IA sur l’amélioration des processus décisionnels complexes et le soutien aux tâches spécialisées des fonctionnaires et des décideurs. Cela peut aussi indiquer que les gouvernements n’exploitent pas encore pleinement l’IA pour les tâches répétitives auxquelles les fonctionnaires consacrent pourtant une part importante de leur temps et où des gains d’efficacité considérables pourraient être réalisés (The Alan Turing Institute, 2024[14] ; Berryhill et al., 2019[15]).
Le Tableau 2.3 fournit des exemples concrets d’utilisation de l’IA à ces fins. Parmi les cas visant à améliorer la productivité des tâches analytiques figurent l’estimation des coûts de conformité dans les analyses d'impact de la réglementation (Allemagne), l’analyse et la notation des réponses enregistrées des candidats dans certains processus de recrutement (Royaume‑Uni), ou encore l’assistance au personnel de l’administration pour répondre à des questions récurrentes en matière de passation de marchés publics (Caroline du Nord, États-Unis). L’automatisation de tâches répétitives à faible intensité cognitive concerne plusieurs domaines, comme les tâches judiciaires récurrentes ou les processus financiers et de gestion des ressources humaines. C’est le cas de Prometea en Argentine, du projet AI Litigation au Brésil, ou encore de l’utilisation de l’automatisation robotisée des processus (ARP) et de l’IA pour la gestion financière en Finlande. Les utilisations visant à personnaliser les services se retrouvent dans des fonctions comme les services publics, l'administration fiscale, la réglementation ou la justice. En Suède par exemple, le service public de l’emploi utilise BÄR pour adapter l’accompagnement à la recherche d’emploi, en optimisant l’allocation des ressources grâce à des recommandations personnalisées en matière de formation et d’orientation. À Singapour, l’administration fiscale a développé un agent conversationnel afin d’aider les contribuables à effectuer eux-mêmes leurs démarches et leurs paiements. Enfin, l’IA sert aussi à moderniser les processus de recrutement et de développement professionnel dans la fonction publique : la Commission de la fonction publique australienne mène par exemple un projet pilote utilisant l’IA pour accélérer la conception, la structuration et le déploiement de formations aux compétences numériques, tandis qu’en Espagne, l’Institut national d’administration publique l’emploie pour transformer l’accès des fonctionnaires aux ressources pédagogiques, en améliorant la recherche et les recommandations de contenus pertinents.
Tableau 2.3. Exemples d’utilisation de l’IA pour l’automatisation, la rationalisation et la personnalisation des processus et des services
Copier le lien de Tableau 2.3. Exemples d’utilisation de l’IA pour l’automatisation, la rationalisation et la personnalisation des processus et des services|
Pays |
Initiative |
Description |
Bénéfice spécifique |
Fonction |
|---|---|---|---|---|
|
Argentine |
Prometea et ChatGPT dans le secteur judiciaire |
Le ministère public de Buenos Aires a adopté Prometea en 2017 pour automatiser les tâches judiciaires répétitives et accélérer le traitement des affaires. En 2024, les services ont commencé à recourir à ChatGPT pour analyser des affaires et rédiger des décisions. Grâce à cet outil, le temps nécessaire pour rédiger un jugement est passé d’une heure à 10 minutes, ce qui améliore considérablement les délais de traitement des dossiers. |
Automatisation de tâches routinières (et, depuis peu, de tâches analytiques) |
Justice (Encadré 5.62) |
|
Australie |
L’IA pour générer des formations en ligne |
La Commission de la fonction publique australienne (APSC) a testé l’utilisation de l’IA pour accélérer la création de cours destinés aux agents publics, en concevant, structurant et déployant des formations aux compétences numériques en quelques minutes au lieu de plusieurs semaines. Le projet pilote a consisté à intégrer des contenus contrôlés pour générer des plans de cours et des questionnaires, puis à affiner ces contenus via des boucles de rétroaction. |
Approches ciblées pour renforcer les compétences dans la fonction publique |
Réforme de la fonction publique (Encadré 5.22) |
|
Brésil |
Projet AI Litigation |
Les juridictions fiscales du Brésil utilisent l’IA pour regrouper les recours similaires et les attribuer aux mêmes agents afin d’accélérer leur traitement. Les premiers essais ont montré un haut degré de précision, ce qui a permis de réduire sensiblement les retards et de rendre des décisions plus rapidement. |
Automatisation de tâches routinières |
Administration fiscale (Encadré 5.2) |
|
Finlande |
Automatisation robotisée des processus et IA pour la gestion financière |
La Finlande utilise un outil combinant l’automatisation robotisée des processus et l’IA pour automatiser les processus financiers et de gestion des ressources humaines, notamment le traitement des factures. Cette stratégie d’automatisation structurée améliore la capacité de mise à l'échelle et accroît l’efficacité. |
Automatisation de tâches routinières |
Finances publiques |
|
Allemagne |
L’IA dans les analyses d'impact de la réglementation |
En Allemagne, l’Office fédéral de la statistique étudie l'utilisation de l’IA pour estimer les coûts de conformité dans les analyses d'impact de la réglementation. L’IA identifie les passages pertinents dans les textes de loi et prédit les implications en termes de coûts, ce qui permet aux fonctionnaires de concentrer leurs ressources sur les cas les plus complexes. |
Amélioration de la productivité dans les tâches analytiques |
Réglementation (Encadré 5.13) |
|
Singapour |
Agent conversationnel pour les services aux contribuables |
L’administration fiscale de Singapour a développé un agent conversationnel utilisant l’IA et le traitement automatique du langage naturel pour aider les contribuables dans leurs démarches et leurs paiements. Ce système renforce l’autonomie des contribuables, allège la charge administrative et améliore la satisfaction des usagers. |
Personnalisation des services pour répondre à des besoins spécifiques |
Administration fiscale (Encadré 5.4) |
|
Espagne |
Graphe de connaissances |
L’l’Institut national de l’administration publique (INAP) déploie un graphe de connaissances enrichi par l’IA pour transformer l’accès des fonctionnaires à un vaste ensemble de ressources pédagogiques. Cette nouvelle « banque de ressources » facilite la recherche et propose des contenus pertinents, ce qui permet aux fonctionnaires d’identifier et d’appliquer plus efficacement les connaissances essentielles. |
Approches ciblées pour renforcer les compétences dans la fonction publique |
Réforme de la fonction publique |
|
Suède |
BÄR |
Le service public d’emploi utilise BÄR, un outil d’IA intégré au programme « Prepare and Match » pour adapter l’accompagnement dans la recherche d’emploi. En analysant les profils des demandeurs d’emploi et en prédisant leurs chances d’embauche, l’outil oriente les décisions et optimise l’allocation des ressources grâce à des recommandations personnalisées en matière de formation et d’accompagnement. |
Personnalisation des services pour répondre à des besoins spécifiques |
Réforme de la fonction publique (5.43) |
|
Royaume-Uni |
Outmatch |
L’administration fiscale britannique (HRMC) utilise Outmatch pour automatiser le recrutement de jeunes diplômés en analysant et en notant les réponses enregistrées des candidats. Ce système permet d’accélérer les recrutements à grande échelle tout en garantissant la cohérence des évaluations. |
Amélioration de la productivité dans les tâches analytiques |
Réforme de la fonction publique (Encadré 5.20) |
|
États-Unis |
Agent conversationnel pour aider les services responsables de la passation de marchés publics |
Le département informatique de Caroline du Nord a mis en place un agent conversationnel alimenté par l’IA et disponible 24 heures sur 24,7 jours sur 7, pour aider le personnel de l’administration à répondre à des questions récurrentes en matière de passation de marchés publics. Cet outil fournit des réponses instantanées, simplifie les processus et réduit le temps d’attente. |
Amélioration de la productivité dans les tâches analytiques |
Passation de marchés publics |
Amélioration de la prise de décision, de l'analyse des situations actuelles et des prévisions
L’utilisation de l’IA pour améliorer la prise de décision et l'analyse des situations actuelles a été relevée dans 18 % des cas, tandis que 15 % des cas visent une meilleure prévision de l’avenir et 12 % l’amélioration de la gestion et de l’accessibilité de l’information afin de soutenir ces activités (Graphique 2.6). L’apport de ces utilisations de l’IA ne se limite pas aux processus d’élaboration des politiques publiques — qui ne représentent qu’une part minoritaire des efforts des administrations en matière d’IA (OCDE, 2024[7]) — puisqu’elles permettent également d’améliorer l’exécution de ces politiques publiques, l’efficacité interne et la pertinence comme la qualité des services publics.
Le Tableau 2.4 fournit quelques exemples concrets d’utilisation de l’IA à ces fins. Les pouvoirs publics utilisent des outils en open source tels que Polis pour mieux analyser les situations actuelles, notamment dans le cadre d’exercices délibératifs, la plateforme permettant de regrouper les opinions du public et d’identifier les points de convergence. D’autres utilisations optimisent directement la prise de décision. La Corée, par exemple, utilise dBrain+, un système qui analyse en temps réel des données de gestion financière et intègre des outils d’évaluation des risques, de gestion budgétaire et de mesure des performances. La plupart des cas liés à la prévision visent à anticiper certaines conditions pour permettre la prise de décision en amont et le déploiement préalable des ressources (par exemple les prévisions de verglas dans le cadre de l’entretien des routes en hiver en Belgique ou la prévision des risques d’incendie de forêt au Canada), ce qui améliore la prévention des risques et les délais de réaction des autorités. Certains cas de prévision consistent également à simuler différents scénarios. À Helsinki (Finlande), UrbanistAI génère des visualisations de scénarios alternatifs d’aménagement urbain pour faciliter la concertation entre les parties prenantes. Enfin, l’IA est utilisée pour améliorer la gestion et l’accessibilité de l’information, grâce à des outils qui permettent aux parties prenantes internes et externes d’accéder à de vastes volumes de données. Parmi les exemples figurent l’outil de recherche du Parlement européen, qui permet d’analyser plus de 20 ans de documents parlementaires, ou la plateforme expérimentale d’IA générative de la Cour des comptes des Pays-Bas, qui facilite l’analyse des rapports d’audit public. D’autres initiatives prennent la forme d’assistants virtuels capables de fournir rapidement des informations fiables sur l’administration pour améliorer les services d’attention aux usagers, comme Caddy au Royaume-Uni et Albert en France. Certains sont spécialisés, à l’image de Sofia, l’agent conversationnel dédié aux informations écologiques en France.
Tableau 2.4. Exemples d’utilisation de l’IA pour améliorer la prise de décision, l'analyse des situations actuelles et les prévisions
Copier le lien de Tableau 2.4. Exemples d’utilisation de l’IA pour améliorer la prise de décision, l'analyse des situations actuelles et les prévisions|
Pays |
Initiative |
Description |
Bénéfice spécifique |
Fonction |
|---|---|---|---|---|
|
Belgique |
L’IA pour la sécurité routière |
En Belgique, un outil prédit les conditions de verglas et optimise l’allocation des ressources pour l’entretien des routes en hiver. En analysant les données météorologiques et de circulation, il permet aux autorités de déployer de manière préventive des mesures de salage, ce qui favorise la sécurité routière et réduit le nombre d’accidents. |
Amélioration des prévisions |
Services publics ; gestion des catastrophes |
|
Canada |
Anticipation des risques d’incendie de forêt |
En Alberta, un système d’IA pour la prévision des incendies de forêt utilise des données historiques sur les incendies, les conditions météorologiques et l’environnement pour estimer les risques dans les forêts protégées. Il aide les autorités à déployer des ressources de manière préventive, à améliorer les délais de réaction et à réduire les risques. |
Amélioration des prévisions |
Maintien de l'ordre et gestion des catastrophes (Encadré 5.54) |
|
Union européenne |
L’IA pour l’analyse de documents parlementaires |
L'outil de recherche du Parlement européen permet aux citoyens et aux décideurs d’analyser efficacement plus de 20 ans de documents parlementaires, dont 38 000 propositions de résolution et questions parlementaires. L’automatisation de la recherche d’informations grâce à ce système d’IA accroît l’accessibilité et permet une prise de décisions éclairée. |
Amélioration de la gestion et de l’accessibilité de l’information |
Participation civique et gouvernement ouvert (Encadré 5.35) |
|
Finlande |
UrbanistAI |
La ville d’Helsinki a utilisé UrbanistAI pour générer des visualisations de scénarios alternatifs d’aménagement urbain, favorisant ainsi la participation des citoyens et des entreprises locales aux débats sur la piétonnisation de rues stratégiques. Les rendus générés par l’IA ont contribué à établir un consensus entre les parties prenantes. |
Amélioration des prévisions |
Participation civique (Encadré 5.38) |
|
France |
Albert et Sofia |
Albert est un outil d’IA générative qui a été développé pour aider les agents publics à répondre aux demandes des usagers. L’outil aide les fonctionnaires à rechercher des textes réglementaires, résumer des informations et rédiger des réponses, avant une validation humaine du résultat final. Sofia est un agent conversationnel qui facilite l’accès aux connaissances scientifiques et techniques du ministère de la Transition écologique. |
Amélioration de la gestion et de l’accessibilité de l’information |
Services publics (Encadré 5.46) |
|
International |
Polis |
Polis est une plateforme open source alimentée par l’IA qui facilite les processus délibératifs à grande échelle en regroupant les opinions du public et en identifiant les points de convergence. Elle a été utilisée dans plusieurs pays pour éclairer les politiques climatiques, les débats référendaires, la prise de décision à l’échelle municipale ou encore l’élaboration des programmes de partis politiques. |
Amélioration de la prise de décision et de l'analyse des situations actuelles |
Participation civique (Encadré 5.36) |
|
Corée |
dBrain+ |
dBrain+ est un système de gestion financière basé sur l’IA qui analyse en temps réel les données économiques, budgétaires et financières afin d'optimiser la prise de décision en matière de finances publiques. Il intègre des outils d’évaluation des risques, de gestion budgétaire et de mesure des performances. |
Amélioration de la prise de décision et de l'analyse des situations actuelles |
Finances publiques (Encadré 5.8) |
|
Pays‑Bas |
Plateforme d’IA générative sur les travaux d’audit public |
La Cour des comptes des Pays-Bas teste actuellement une plateforme publique d’IA générative permettant aux citoyens et autres parties prenantes de parcourir les rapports publics et d’obtenir des réponses documentées à leurs questions sur les travaux d’audit public. |
Amélioration de la gestion et de l’accessibilité de l’information |
Lutte contre la corruption et promotion de l’intégrité |
|
Royaume-Uni |
Caddy |
Caddy, un assistant virtuel alimenté par l’IA et développé par le Royaume-Uni, aide les agents du service d’attention aux usagers en fournissant rapidement des informations fiables sur l’administration. Grâce à un système de validation humaine intégré, il assure la qualité des réponses tout en améliorant l’efficacité du traitement des demandes des citoyens. |
Amélioration de la gestion et de l’accessibilité de l’information |
Services publics |
Renforcement de la redevabilité et détection des anomalies
En ce qui concerne les utilisations visant à renforcer la redevabilité et à détecter les anomalies, 25 % des cas analysés portent sur la détection de transactions irrégulières et l’évaluation des risques d’intégrité, et 5 % sur l’amélioration de la capacité des pouvoirs publics à mobiliser les acteurs non gouvernementaux et à promouvoir la redevabilité (Graphique 2.6). La première catégorie couvre les cas liés au contrôle, aux dispositifs de prévention et à l’évaluation et la gestion des risques. Ces utilisations sont généralement liées aux missions essentielles de certaines fonctions spécifiques de l’État, telles que la lutte contre la corruption, la promotion de l’intégrité publique ou encore l’application de la réglementation. Les cas qui renforcent les liens entre l’administration et les acteurs non gouvernementaux, et contribuent en fin de compte à améliorer la redevabilité et la réactivité, sont souvent liés aux pratiques de participation civique et de transparence mises en œuvre dans différentes fonctions et entités de l’État.
Le Tableau 2.5 présente quelques exemples d’utilisation de l’IA en ce sens. Certaines utilisations visent à prioriser les actions de vigilance grâce à l’analyse des tendances et des anomalies statistiques. Ainsi, la Cour des comptes du Portugal utilise l’IA pour détecter les cas critiques et prioritaires en matière de marchés publics afin d’orienter ses efforts de contrôle. Au Chili, l’IA est intégrée à la plateforme nationale de passation des marchés publics pour détecter les irrégularités et améliorer le suivi de la conformité. D’autres applications visent à repérer les failles ou l’absence de garde-fous suffisants dans l’élaboration des politiques publiques, par exemple en Lituanie; où l’IA assiste les agents chargés de la prévention de la corruption dans l’évaluation des facteurs de risque présents dans les textes de loi . L’IA peut également renforcer les liens entre l’administration et la population en améliorant la redevabilité. C’est le cas de certaines plateformes et outils en ligne, comme l’assistant virtuel Chatico de Bogotá (Colombie), qui intègre un module de gouvernement ouvert facilitant la participation aux campagnes publiques et aux processus décisionnels.
Tableau 2.5. Exemples d’utilisation de l’IA pour améliorer la redevabilité et la détection des anomalies
Copier le lien de Tableau 2.5. Exemples d’utilisation de l’IA pour améliorer la redevabilité et la détection des anomalies|
Pays |
Initiative |
Description |
Bénéfice spécifique |
Fonction |
|---|---|---|---|---|
|
Chili |
ChileCompra |
L’Observatoire des marchés publics de ChileCompra recourt à de grands modèles de langage (GML) pour analyser les données de passation de marchés, détecter les irrégularités et renforcer le suivi de la conformité, ce qui améliore l’efficacité du contrôle et promeut l’éthique dans les marchés publics. |
Détection des transactions irrégulières et évaluation des risques en matière d’intégrité |
Passation de marchés publics (Encadré 5.24) |
|
Colombie |
Chatico |
La ville de Bogota a lancé Chatico, un assistant virtuel alimenté par l’IA qui permet de faciliter les échanges entre la population et l’administration locale. Accessible via un site internet et WhatsApp, l’agent conversationnel encourage la participation citoyenne aux campagnes publiques et aux processus décisionnels, tout en améliorant l’accessibilité des services publics. |
Participation et responsabilisation accrue des acteurs non gouvernementaux |
Participation civique (Encadré 5.41) |
|
Union européenne |
DATACROS |
DATACROS utilise l’IA pour détecter, dans les structures de propriété des entreprises, des anomalies susceptibles de révéler des cas de corruption ou de blanchiment de capitaux. Le système analyse les données de plus de 70 millions d’entreprises dans 44 pays européens et met en évidence les relations cachées ainsi que les activités potentiellement illicites. |
Détection des transactions irrégulières et évaluation des risques en matière d’intégrité |
Lutte contre la corruption et promotion de l'intégrité (Encadré 5.27) |
|
Lituanie |
L’IA au service des agents chargés de la prévention de la corruption |
La Lituanie développe un outil basé sur l’IA et reposant sur de grands modèles de langage pour aider les agents chargés de la prévention de la corruption à évaluer les facteurs de risque dans les textes de loi, tels que les failles ou l’absence de garde-fous suffisants. |
Détection des transactions irrégulières et évaluation des risques en matière d’intégrité |
Lutte contre la corruption et promotion de l'intégrité (Encadré 5.30) |
|
Portugal |
Évaluation des risques en matière de marchés publics |
La Cour des comptes du Portugal met en place des méthodes d’évaluation des risques fondées sur l’IA afin d’améliorer ses audits et de cibler en priorité les cas les plus critiques en matière de marchés publics. Cette initiative permet d’optimiser les ressources et de renforcer la redevabilité dans le cadre de la commande publique. |
Détection des transactions irrégulières et évaluation des risques en matière d’intégrité |
Passation de marchés publics |
Créer des opportunités pour les parties prenantes externes grâce à l’IA envisagée comme un bien commun
Enfin, une petite minorité de cas d’utilisation (4 %) peuvent générer des opportunités pour les parties prenantes externes, telles que les citoyens, les organisations de la société civile et les entreprises. Les activités concernées se distinguent de la simple prestation générale de services ou du développement de nouveaux modes et canaux d’interaction visant à renforcer la participation et la redevabilité. Dans ce cas, l’IA peut renforcer les capacités des acteurs externes en améliorant leur accès à l’information et en leur permettant de s’appuyer sur des systèmes d’IA soutenus par les pouvoirs publics pour remplir leurs missions plus efficacement et mieux atteindre leurs objectifs. Ces utilisations restent marginales et représentent une lacune potentielle dans les efforts déployés par les pouvoirs publics, appelant à des recherches et des actions complémentaires. Comme indiqué plus haut, ces cas d’utilisation pourraient toutefois être plus fréquents dans des domaines qui ne sont pas couverts par ce rapport.
Le Tableau 2.6 fournit quelques exemples concrets d’utilisation de l’IA à ces fins. Les cas recensés incluent généralement des outils intégrés à des plateformes participatives utilisables en fonction des besoins et des objectifs des usagers. Ainsi, la plateforme participative Decide Madrid (Espagne) a testé des outils d’IA pour aider les citoyens à regrouper leurs idées et à élaborer leurs propres propositions d’actions. Dans la même logique, l’outil d’IA MAPLE aide les citoyens en résumant les projets de textes législatifs et en leur permettant de formuler des observations ainsi que des commentaires sur les textes en cours d’examen. Dans le domaine de la gestion des risques de catastrophe, les pouvoirs publics peuvent également contribuer à mettre à disposition des ressources partagées qui renforcent la capacité des citoyens à faire face aux catastrophes naturelles. Par exemple, le Bencana Bot en Indonésie invite les habitants à signaler les inondations via les réseaux sociaux, ce qui lui permet de générer en temps réel des cartes en ligne qui, combinées aux données officielles, peuvent être réutilisées par des acteurs non gouvernementaux. Bien que ces exemples contribuent au bénéfice recherché, ils le font de manière périphérique, les acteurs externes en retirant parfois un avantage indirect sous forme de retombées positives des activités menées par l’État. De nouvelles opportunités pourraient apparaître pour que les pouvoirs publics ouvrent ou mettent à disposition des acteurs externes des systèmes d’IA de manière plus directe, notamment dans des domaines aujourd’hui non couverts ou jugé peu attractifs par le secteur privé.
Tableau 2.6. Exemples d’utilisations de l’IA créant des opportunités pour les parties prenantes externes dans une logique de bien commun
Copier le lien de Tableau 2.6. Exemples d’utilisations de l’IA créant des opportunités pour les parties prenantes externes dans une logique de bien commun|
Pays |
Initiative |
Description |
Fonction |
|---|---|---|---|
|
Grèce |
DidaktorikaAI |
Lancée par le Centre national de documentation (EKT), la plateforme grecque DidaktorikaAI améliore l’accessibilité des connaissances académiques et scientifiques pour les décideurs et la société en général, grâce à une bibliothèque en ligne alimentée par l’IA et rassemblant plus de 50 000 publications. |
Participation civique et gouvernement ouvert |
|
Indonésie |
Bencana Bot |
À Jakarta (Indonésie), l’agent conversationnel Bencana Bot, alimenté par l’IA, invite les habitants à signaler les inondations via les réseaux sociaux, ce qui lui permet de générer des cartes en ligne accessibles gratuitement et en temps réel sur PetaBencana.id. Combinée aux données officielles fournies par l’Agence de prévention des catastrophes de Jakarta, la plateforme aide les habitants à rester en sécurité en cas d’urgence. Son utilisation a ainsi bondi de 2 000 % lors des grandes crues. |
Maintien de l’ordre et gestion des risques de catastrophe |
|
Espagne |
Decide Madrid |
En 2021, la plateforme participative Decide Madrid (Espagne), reposant sur le logiciel en open source Consul, a testé un système de traitement automatique du langage naturel pour aider les citoyens à regrouper leurs idées et à élaborer des propositions. |
Participation civique et gouvernement ouvert |
|
États-Unis |
MAPLE |
L’outil MAPLE (Plateforme du Massachusetts pour la participation législative), alimenté par l’IA, aide la population à mieux comprendre le contexte et les objectifs des projets de textes législatifs grâce à des résumés générés par l’IA, ce qui lui permet de soumettre des observations et des commentaires sur les projets en cours d’examen. |
Participation civique et gouvernement ouvert |
Certaines fonctions de l’État sont plus avancées que d’autres en matière de gouvernance et d’adoption de l’IA
Si le potentiel de l’IA est reconnu dans l’ensemble des fonctions de l’État, l’adoption et la gouvernance de cette technologie se trouvent à des stades de maturité très différents au sein des administrations. Certaines fonctions mettent déjà en œuvre des initiatives d’IA de manière structurée, tirent les enseignements de cette mise en pratique et, dans certains cas, déploient les solutions efficaces à plus grande échelle dans d’autres domaines ou contextes. Ainsi, dans la conception et la prestation des services publics, l’IA est couramment utilisée pour automatiser des tâches, rechercher et synthétiser des informations, et améliorer l’efficacité ainsi que la pertinence des services numériques pour les usagers. Dans le maintien de l’ordre et la gestion des risques de catastrophe, elle sert habituellement à orienter le déploiement des ressources policières en fonction des priorités, à accélérer les enquêtes et à mieux anticiper et gérer les catastrophes. À l’inverse, d’autres fonctions de l’État n’en sont qu’aux premières expérimentations, avec des prototypes et des projets pilotes limités et ponctuels. Dans des domaines tels que l’évaluation des politiques publiques, la gestion des finances publiques ou la conception et la prestation de l’activité réglementaire, l’IA se limite souvent à des projets isolés. Dans certaines fonctions, comme l’administration de la justice ou la lutte contre la corruption et la promotion de l’intégrité publique, les approches diffèrent fortement selon les pays. L’Argentine (Encadré 5.62 consacré à Prometea) et l’Espagne (Encadré 5.67 consacré à l’utilisation de l’IA dans la lutte contre les violences domestiques) déploient activement des solutions sophistiquées, y compris dans des domaines sensibles, tout en parvenant à atténuer les risques qui, ailleurs, ont parfois mené à des scandales. D’autres pays, en revanche, n’en sont qu’aux prémices de leur transformation numérique. À mesure que de nouveaux cas d’utilisation apparaissent, il appartiendra aux pouvoirs publics de limiter les risques pour promouvoir une adoption responsable de l’IA.
En matière de maturité technique, l’adoption de l’IA varie non seulement en termes d’échelle, mais aussi selon les types de systèmes mobilisés. Certaines fonctions de l’État, telles que l’administration fiscale et la passation de marchés publics, reposent largement sur des systèmes fondés sur des règles qui se sont avérés efficaces depuis des années pour automatiser des processus décisionnels structurés. D’autres, comme le maintien de l'ordre et la gestion des catastrophes ou la lutte contre la corruption et la promotion de l’intégrité publique, recourent plutôt à des systèmes d’apprentissage automatique plus avancés pour détecter des tendances, affiner l’évaluation des risques et soutenir la prise de décision. En revanche, dans la plupart des fonctions de l’État, l'usage des modèles d’IA générative les plus récents, comme les grands modèles de langage, demeure marginal, alors même qu'ils ouvrent de nouvelles perspectives en matière de synthèse des connaissances et de génération de contenus et qu’ils pourraient transformer les pratiques. On observe la même tendance dans les résultats issus d’autres bases de données : seuls 61 cas d’utilisation de l’IA sur 1 343 (soit 4.5 %) recensés dans le référentiel de l’Observatoire technologique du secteur public de la Commission européenne concernent l’IA générative (Brizuela et al., 2025[16]). Une étude de Deloitte (2024[17]) a également mis en évidence une préparation inégale à l’adoption de l’IA générative selon les secteurs de l’administration, même si la classification sectorielle ne correspond pas exactement aux fonctions de l’État examinées dans ce rapport. L’utilisation de systèmes d’IA générative dans les administrations se retrouve dans quelques fonctions abordées au Chapitre 5, comme la conception et la mise en œuvre de l’activité réglementaire, la prestation de services publics ou encore la participation civique, mais ces initiatives s’avèrent souvent ponctuelles ou expérimentales. Les utilisations les plus avancées se présentent souvent sous forme d’agents conversationnels, qui peuvent certes avoir un impact significatif, mais n’exploitent pas pleinement le potentiel de la technologie en matière de synthèse à grande échelle, de production de contenus personnalisés ou de services plus proactifs et adaptés. La lente adoption de ces systèmes dans de nombreux domaines, combinée au caractère relativement récent de la technologie et des cas d’utilisation correspondants, montre que si l’expérimentation de l’IA est généralisée, la transition vers des systèmes plus sophistiqués et à fort impact reste inégale selon les fonctions et les pays. Cela ne signifie pas pour autant que les pouvoirs publics devraient délaisser les formes plus classiques d’IA au profit de l’IA générative, car courir après la dernière « technologie à la mode » dans des domaines où celle-ci ne correspond pas aux besoins peut conduire à l’échec d’un projet (Ryseff et Narayanan, 2025[18]).
La disponibilité et la qualité des données constituent un facteur déterminant de l’adoption de l’IA dans les différentes fonctions de l’État. Dans l’administration fiscale par exemple, l’IA est largement utilisée depuis des années en raison de l’abondance de données structurées, ce qui a permis d’automatiser des tâches et de procéder à des évaluations des risques. Toutefois, en raison de la complexité juridique qui entoure cette fonction ainsi que la gestion des données des contribuables, la plupart des utilisations reposent encore sur des systèmes classiques fondés sur des règles. L’adoption de systèmes plus récents d’apprentissage automatique reste limitée, alors même qu’ils pourraient permettre des gains de productivité en exploitant aussi des données non structurées. À l'inverse, bien que l’IA soit de plus en plus utilisée dans le secteur privé pour la gestion des ressources humaines, son application dans le cadre de la réforme de la fonction publique reste limitée par l’absence de données exhaustives sur les effectifs, notamment sur les compétences des agents, les exigences des postes et les indicateurs de performance. L’abondance des données dans les administrations ne se traduit donc pas nécessairement par une disponibilité de données prêtes à être exploitées par l’IA (voir le Chapitre 3 sur les défis de mise en œuvre).
Au-delà de la question des données, certains domaines peuvent accuser un retard de maturité car la nature des tâches exige des capacités techniques que seuls les systèmes d’IA les plus récents sont en mesure de fournir. Cela laisse entrevoir un potentiel d’accélération rapide dans les prochains mois. Ainsi, l’adoption de l’IA dans la conception et la prestation de l’activité réglementaire semble s’être développée et accélérée grâce à l’utilisation de grands modèles de langage dans le cadre de tâches d’analyse qui étaient impossibles à réaliser avec d’autres systèmes (voir par exemple l’Encadré 5.12 consacré aux outils de recherche et de rédaction juridiques et réglementaires). Autre exemple : l’IA rend désormais possibles des exercices délibératifs de grande ampleur dans le cadre de la participation civique, à une échelle jusqu’alors impossible à atteindre.
Chaque fonction de l’État évolue dans un contexte spécifique et présente des besoins particuliers
L’adoption de l’IA dans l’administration est souvent abordée de manière générale, mais ses effets et ses risques varient considérablement selon les fonctions concernées. Chacune présente des défis particuliers, des contraintes réglementaires spécifiques et un degré de préparation à l’IA qui lui est propre. Par exemple, dans les services publics de santé, l’utilisation de l’IA doit composer avec des règles strictes en matière de protection des données et avec des enjeux éthiques liés aux décisions médicales. Dans d’autres domaines comme la participation civique, les applications peuvent être plus expérimentales et prévoir des optimisations en temps réel, avec un risque moindre de porter atteinte aux droits des personnes. Une même solution d’IA peut ainsi produire des résultats, des effets et des conséquences très différents selon la fonction où elle est déployée. Dès lors, l’analyse des fonctions de l’État présentée dans cette section ne doit pas être comprise comme une comparaison directe entre les fonctions. Des recherches complémentaires sont nécessaires pour mieux appréhender ces différences, notamment en élargissant le champ de l’analyse.
Les cas d’utilisation peuvent présenter des risques s’ils ne sont pas mis en œuvre de manière fiable
Copier le lien de Les cas d’utilisation peuvent présenter des risques s’ils ne sont pas mis en œuvre de manière fiableComme indiqué au Chapitre 1, le présent rapport distingue cinq types de risques liés à l’adoption de l’IA par les administrations. Outre ceux présentés dans le Graphique 2.7, il existe également un risque d’inaction : celui de passer à côté des opportunités et de voir s’accroître l’écart de capacités entre le secteur public et le secteur privé. Ce risque, lié à l’absence de développement des compétences et d’utilisation de l’IA dans l’administration, ne peut être représenté graphiquement et demeure difficile, voire impossible, à mesurer avec précision.
L’OCDE a constaté que chacun des 200 cas d’utilisation analysés dans ce rapport pouvait comporter un ou plusieurs types de risques si leur conception et leur utilisation ne répondaient pas aux principes de fiabilité et de confiance.
Graphique 2.7. Les risques opérationnels potentiels sont plus fréquents dans l’ensemble des fonctions de l’État
Copier le lien de Graphique 2.7. Les risques opérationnels potentiels sont plus fréquents dans l’ensemble des fonctions de l’ÉtatNombre de cas d’utilisation recensés dans les différentes fonctions de l’administration, classés selon les différents types de risques sélectionnés
Note : Entre parenthèses figure le nombre d'occurrences par type de risques. Un même cas d’utilisation peut relever de plusieurs catégories de risques. Le nombre total d’occurrences de risques potentiels est donc supérieur au nombre total de cas d’utilisation.
Source : Analyse réalisée par l’OCDE à partir des cas d’utilisation recensés.
Les risques opérationnels potentiels sont de loin les plus fréquents dans les cas d’utilisation analysés (93 %). Un exemple parlant à cet égard est celui du dispositif australien Robodebt : des enquêtes ont révélé que des lacunes dans la conception de l’algorithme avaient joué un rôle majeur dans ses défaillances et que ses calculs avaient finalement été jugés illégaux (Encadré 5.11). En l'occurrence, la simplification excessive de l’algorithme et l’absence de garde-fous ont conduit à l’émission de 470 000 avis de dette erronés, sans aucune vérification humaine. Cette affaire illustre les risques opérationnels liés à l’automatisation de systèmes sociaux complexes sans surveillance humaine suffisante ni tests rigoureux, et elle a en outre généré des risques éthiques, avec des préjudices concrets pour les personnes concernées4.
Les risques éthiques potentiels arrivent en deuxième position dans les cas d'utilisation analysés (56 %), comme les cas d’usage d’outils d’IA pour la sélection de candidats dans les services de ressources humaines. En réalité, les risques éthiques sont présents dans la grande majorité des cas d’utilisation de l’IA. Toutefois, la moindre présence de ce risque dans les cas analysés pourrait s’expliquer par le champ d’analyse limité et ciblé, ainsi que par les conditions concrètes dans lesquelles les cas d’usage identifiés dans le rapport ont été appliqués. Un exemple de risque éthique ayant entraîné un préjudice réel est l’affaire Toeslagenaffaire, un scandale lié aux allocations familiales aux Pays-Bas. Un système d’IA a accusé à tort 26 000 familles de fraude aux allocations familiales en raison d’un algorithme biaisé ciblant tout particulièrement les familles binationales ou issues de l’immigration. Ainsi, les personnes affectées ont été contraintes de rembourser des dettes dont elles n’étaient pas redevables (Encadré 5.6). Ce cas illustre à quel point les risques éthiques non maîtrisés peuvent entraîner des préjudices graves.
Les risques potentiels de rejet par le public sont présents dans 50 % des cas d’utilisation analysés. Les échecs passés dans le déploiement de l’IA ont fortement entamé la confiance de la population et remis en cause la capacité de l’État à utiliser ces technologies de manière responsable. Ces expériences soulignent la nécessité pour les pouvoirs publics d’anticiper ces risques et de réagir rapidement en cas de problème, afin de préserver la confiance de la population. Cela suppose la mise en place de garde-fous appropriés, avec notamment des mécanismes solides de responsabilité et de réparation, un suivi et un contrôle continus, ainsi qu’une gestion rigoureuse des risques.
Enfin, des risques potentiels d’exclusion ont été identifiés dans 38 % des cas analysés. Par exemple, les plateformes de participation citoyenne qui utilisent l’IA pour aider les citoyens à regrouper leurs idées et à élaborer des propositions peuvent poser problème aux personnes qui ne possèdent pas de compétences numériques. Or cela peut involontairement avantager les publics déjà favorisés, en renforçant leur capacité à faire valoir davantage leurs idées (Duberry et al., 2021[19] ; Wang et al., 2024[20]). Les cas d'utilisation de l’IA peuvent aider les agents publics à traiter efficacement un grand nombre de retours des citoyens et à mieux encadrer les processus participatifs. Leur succès dépend toutefois de la diversité intégrée dans les données d’entraînement du système d’IA. Si cette diversité fait défaut, l’outil risque de ne pas refléter correctement la pluralité des opinions (ECNL, 2024[21]). De plus, de nombreux outils de traduction assistée par l’IA qui sont utilisés dans ces plateformes peuvent mal restituer les nuances culturelles ou linguistiques des langues minoritaires, car ils sont généralement entraînés sur des corpus en anglais et dans quelques langues dominantes (ECNL, 2024[21])5.
La présence plus ou moins importante de certains risques dans les différentes fonctions de l’administration est également intéressante. Ainsi, les cas observés dans l’administration de la justice et la réforme de la fonction publique semblent présenter des risques éthiques plus importants, en raison du potentiel d’effets défavorables dans certains dossiers. Dans l’administration fiscale, les contrôles et réglementations existants peuvent constituer des garde-fous contre les risques éthiques et d’exclusion, ce qui rend les risques opérationnels plus prégnants dans ce domaine. En matière de participation civique, les risques de rejet par le public se manifestent plus nettement que dans d’autres fonctions. Cela tient probablement au fait que la plupart des cas d'utilisation impliquent une interaction directe entre l’administration et la population, rendant l’acceptation publique d’autant plus déterminante. Il en va de même pour la passation de marchés publics, où la perception des fournisseurs et la confiance de la population à l’égard des systèmes d’IA jouent un rôle clé dans le succès de ces derniers. Les risques de rejet y sont donc plus fortement représentés. Cette analyse comparative montre qu'il est important de bien identifier les principaux facteurs à l'origine des risques potentiels dans chaque domaine, afin de mieux orienter les stratégies de prévention et de gestion.
Les pouvoirs publics sont attentifs à plusieurs risques liés à l’IA, mais certains semblent être négligés
Dans l’ensemble, les analyses menées et les échanges avec les pouvoirs publics dans le cadre de la préparation des Chapitres 4 et 5 indiquent que de nombreux gouvernements nationaux sont bien conscients des risques associés aux données, au manque de transparence et d’explicabilité, ainsi qu’à une utilisation abusive de l’IA, qu’elle soit volontaire ou non, et des atteintes à la vie privée ou autres préjudices qui peuvent en découler. La plupart ont mis en place des mécanismes pour gérer ces risques. C’est un constat positif et peu surprenant, puisque ces risques sont régulièrement soulignés par les experts en IA et les travaux de recherches, aussi bien dans le secteur public que dans le secteur privé (OCDE, 2024[13])6. Dans une moindre mesure, le risque d’une dépendance excessive aux technologies d’IA semble également être pris en compte par les administrations. En revanche, l’accent est moins mis sur la nécessité de veiller à ce que l’utilisation de l’IA par les pouvoirs publics ne creuse pas davantage les fractures numériques. Lorsque des canaux de services alternatifs ne sont pas proposés, les ambitions d’automatisation et de rationalisation des processus peuvent réduire l’accès aux services pour certaines communautés, soit parce qu’elles disposent d’un accès limité au numérique, soit parce qu’elles privilégient les démarches hors ligne (Welby et Hui Yan Tan, 2022[22]). De plus, si les pouvoirs publics reconnaissent que l’adoption de l’IA peut améliorer la productivité et permettre aux agents de se concentrer sur des tâches à plus forte valeur ajoutée, ils paraissent moins sensibles au risque que l’IA dégrade la qualité des emplois (par exemple lorsque des systèmes algorithmiques imposent une gestion intrusive du travail) ou entraîne des suppressions de postes (Peixoto, Canuto et Jordan, 2024[23]). Même si l’adoption de l’IA devenait systématique dans les administrations, il conviendra de veiller à ce que l’ensemble de la population soit correctement desservie et que les préoccupations ainsi que les droits des fonctionnaires soient pris en compte, afin de favoriser son acceptation.
Enfin, les pouvoirs publics doivent mieux prendre en compte le risque d’inaction. Tout au long des Chapitres 4 et 5, il ressort clairement que de nombreux États se donnent des objectifs précis pour leurs initiatives dans le domaine de l’IA, tout en ayant conscience des différents risques associés, qu’ils s’efforcent d’atténuer en adoptant des approches visant à tirer pleinement parti du potentiel de cette technologie. Cependant, les analyses menées dans le cadre de ce rapport ainsi que les échanges avec les responsables publics montrent que la prise de conscience des opportunités manquées en raison d’une adoption trop lente de l’IA, ou des conséquences du creusement de l’écart de capacités entre secteur public et privé, reste encore limitée.
Peu d’administrations ont évalué dans quelle mesure l’IA pourrait transformer leurs opérations internes et les services destinés au public. En outre, la plupart n’ont pas encore clairement formulé leurs ambitions en matière d’IA dans l’action publique, ni identifié les lacunes existantes ou établi de feuilles de route précises pour combler ces manques et atteindre leurs objectifs. Les pouvoirs publics doivent explorer le potentiel de l’IA non seulement pour améliorer la conception et la mise en œuvre des politiques publiques et des services, mais aussi pour s’assurer qu’ils disposent des connaissances et des moyens nécessaires pour encadrer son développement et son utilisation, à la fois au sein de l’administration et en dehors de celle-ci. Dans une enquête menée par le parlement australien (2025[24]), la Commission mixte des comptes publics et de l’audit a exprimé sa « très vive inquiétude » quant au fait que l’IA dépasse prochainement la capacité de l’État à la réguler. Les conclusions de cette commission ne reflètent pas nécessairement la position officielle du gouvernement australien. Les experts en IA soulignent également que l’incapacité des mécanismes et institutions de gouvernance à suivre le rythme auquel l’IA évolue constitue l’un des risques les plus critiques associés à cette technologie (OCDE, 2024[13]).
Outre ces risques majeurs liés à l’utilisation de l’IA dans l’action publique, l’analyse de 200 cas d’utilisation par l’OCDE a mis en évidence différents défis auxquels les pouvoirs publics peuvent être confrontés dans l’adoption de cette technologie. Certains de ces défis sont transversaux à toutes les fonctions de l’administration, tandis que d’autres apparaissent plus marqués dans certains domaines particuliers. Ils peuvent se traduire par des difficultés plus larges et freiner l’utilisation stratégique de l’IA par l’administration. Ces enjeux sont abordés dans le chapitre suivant.
Références
[17] Austin, T. et al. (2024), A snapshot of how public sector leaders feel about generative AI, https://www2.deloitte.com/us/en/insights/industry/public-sector/ai-adoption-in-public-sector.html.
[12] Bailey, K. (2016), Reframing the “AI Effect”, https://medium.com/@katherinebailey/reframing-the-ai-effect-c445f87ea98b.
[15] Berryhill, J. et al. (2019), Hello, World : Artificial intelligence and its use in the public sector, Éditions OCDE, Paris, https://doi.org/10.1787/726fd39d-en.
[16] Brizuela, A. et al. (2025), Analysis of the generative AI landscape in the European public sector, Commission européenne, https://op.europa.eu/s/z4XY.
[10] CE (2025), Public Sector Tech Watch latest dataset of selected cases, http://data.europa.eu/89h/e8e7bddd-8510-4936-9fa6-7e1b399cbd92 (consulté le 4 avril 2025).
[26] Cour des comptes des Pays-Bas (2024), Central government often does not assess risks of AI, https://english.rekenkamer.nl/latest/news/2024/10/16/central-government-often-does-not-assess-risks-of-ai.
[19] Duberry, J. et al. (2021), « Artificial intelligence and civil society participation in policy-making processes: Thinking about AI and participation. », SSRN Electronic Journal, https://doi.org/10.2139/ssrn.3817666.
[21] ECNL (2024), Can AI tools and platforms make public engagement truly meaningful and inclusive?, https://ecnl.org/news/ai-public-participation-hope-or-hype (consulté le 17 mars 2025).
[5] Gouvernement de la Suisse (2025), Strategy Use of AI systems in the Federal Administration, https://www.bk.admin.ch/bk/en/home/digitale-transformation-ikt-lenkung/ikt-vorgaben/strategien-teilstrategien/sb021-strategie-einsatz-von-ki-systemen-in-der-bundesverwaltung.html.
[6] Gouvernement de l’Uruguay (2021), AI Strategy for the Digital Government, https://www.gub.uy/agencia-gobierno-electronico-sociedad-informacion-conocimiento/comunicacion/publicaciones/ia-strategy-english-version/ia-strategy-english-version/ai-strategy-for.
[4] Gouvernement du Canada (2025), Stratégie en matière d’intelligence artificielle pour la fonction publique fédérale 2025-2027 : Aperçu, https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/gc-ai-strategie-apercu.html.
[8] Harvard Kennedy School (2023), AI, judges and judgement: setting the scene, https://www.hks.harvard.edu/centers/mrcbg/publications/awp/awp220.
[11] Muñoz-Cadena, S. et al. (2025), Sistemas de IA en el sector público de América Latina y el Caribe (Versión V2), https://sistemaspublicos.tech/sistemas-de-ia-en-america-latina/ (consulté le 29 avril 2025).
[7] OCDE (2024), « 2023 OECD Digital Government Index : Results and key findings », Documents d’orientation sur la gouvernance publique de l’OCDE, n° 44, Éditions OCDE, Paris, https://doi.org/10.1787/1a89ed5e-en.
[13] OCDE (2024), « Assessing potential future artificial intelligence risks, benefits and policy imperatives », OECD Artificial Intelligence Papers, n° 27, Éditions OCDE, Paris, https://doi.org/10.1787/3f4e3dfb-en.
[1] OCDE (2024), Governing with Artificial Intelligence : Are governments ready?, Éditions OCDE, Paris, https://doi.org/10.1787/26324bc2-en.
[2] OCDE (2023), « The state of implementation of the OECD AI Principles four years on », OECD Artificial Intelligence Papers, n° 3, Éditions OCDE, Paris, https://doi.org/10.1787/835641c9-en.
[3] OCDE (2021), « State of implementation of the OECD AI Principles : Insights from national AI policies », Documents de travail de l’OCDE sur l’économie numérique, n° 311, Éditions OCDE, Paris, https://doi.org/10.1787/1cd40c44-en.
[24] Parlement australien (2025), Report 510: Inquiry into the use and governance of artificial intelligence systems by public sector entities - ’Proceed with Caution’, https://parlinfo.aph.gov.au/parlInfo/download/committees/reportjnt/RB000567/toc_pdf/Report510Inquiryintotheuseandgovernanceofartificialintelligencesystemsbypublicsectorentities-'ProceedwithCaution'.pdf.
[23] Peixoto, T., O. Canuto et L. Jordan (2024), « AI and the Future of Government: Unexpected Effects and Critical Challenges », Policy briefs on Economic Trends and Policies, vol. 2408, https://ideas.repec.org/p/ocp/pbecon/pb_10-24.html.
[18] Ryseff, J. et A. Narayanan (2025), Why AI Projects Fail, https://www.rand.org/pubs/presentations/PTA2680-1.html.
[14] The Alan Turing Institute (2024), AI for bureaucratic productivity: Measuring the potential of AI to help automate 143 million UK government transactions, https://www.turing.ac.uk/news/publications/ai-bureaucratic-productivity-measuring-potential-ai-help-automate-143-million-uk.
[9] Université de Columbia (2020), The Future of AI in the Brazilian Judicial System, https://www.sipa.columbia.edu/aidriven-innovations-brazilian-judiciary.
[20] Wang, C. et al. (2024), « The artificial intelligence divide: Who is the most vulnerable? », New Media & Society, https://doi.org/10.1177/14614448241232345.
[22] Welby, B. et E. Hui Yan Tan (2022), « Designing and delivering public services in the digital age », OECD Going Digital Toolkit Notes, n° 22, Éditions OCDE, Paris, https://doi.org/10.1787/e056ef99-en.
[25] Yigitcanlar, T. et al. (2024), Local governments are using AI without clear rules or policies, and the public has no idea, https://theconversation.com/local-governments-are-using-ai-without-clear-rules-or-policies-and-the-public-has-no-idea-244647.
Notes
Copier le lien de Notes← 1. Tous les cas d’utilisation analysés n’ont pas été repris pas dans ce rapport. L’OCDE a sélectionné dans le cadre du rapport les cas qui illustraient le mieux les différents thèmes et conclusions présentés.
← 2. Voir respectivement https://oecd-opsi.org/innovation-tag/artificial-intelligence-ai et https://oecd.ai/dashboards/policy-instruments/AI_use_cases_in_the_public_sector. La collecte de données effectuée par l’OPSI comprenait un appel à innovations ouvert à l’échelle mondiale, sous la forme d’un exercice de co-création participative centré sur les innovations dans les services publics en 2024.
← 3. Conformément à la Classification des fonctions des administrations publiques. Voir https://ec.europa.eu/eurostat/statistics-explained/index.php?title=Glossary:Classification_of_the_functions_of_government_(COFOG)&action=statexp-seat&lang=fr.
← 4. Le dispositif Robodebt reposait sur le rapprochement automatisé de données, l’estimation des revenus moyens et le calcul des trop-perçus. Comme indiqué dans l’Encadré 1.1 de ce rapport, beaucoup estiment que de tels systèmes ne devraient pas être qualifiés d’IA. Le dispositif Robodebt serait donc plus justement décrit comme un système de prise de décision automatisée. Il n’en reste pas moins utile pour illustrer les enjeux de gouvernance, de supervision éthique et de conception des algorithmes.
← 5. Voir également la discussion sur les risques d’exclusion au Chapitre 1.
← 6. Bien que les pouvoirs publics soient généralement sensibilisés à ces enjeux et à d’autres questions connexes et que, comme indiqué au Chapitre 4, de nombreux cadres et processus aient été instaurés pour atténuer ces risques, il leur appartient désormais d’agir et de veiller à l’application de ces cadres et processus afin de garantir une gestion appropriée des risques. Il existe des cas où les administrations ne respectent pas pleinement leurs propres exigences internes ou sont incitées à considérer que certains systèmes ne présentent qu’un faible risque, ce qui allège d’autant leurs obligations en matière de redevabilité (Cour des comptes des Pays-Bas, 2024[26]). En outre, certaines études indiquent que les administrations locales sont souvent moins bien informées ou moins enclines que les administrations nationales à mettre en œuvre des mesures de réduction des risques (Yigitcanlar et al., 2024[25]). Enfin, le présent rapport n’a pas pour objet d’évaluer la qualité ni l’efficacité des processus et des mécanismes en place, mais entend mettre en lumière ceux qui semblent robustes et peuvent être considérés comme de bonnes pratiques.