Ce chapitre explique comment l'intelligence artificielle (IA) peut accélérer la transition vers l'administration numérique. Il présente l'administration comme un développeur et un utilisateur de l'IA, allant au-delà des rôles traditionnels d'investisseur et de régulateur. Le chapitre regroupe les opportunités – productivité (efficacité et efficience), réactivité et responsabilité – tout au long du cycle des politiques publiques, et souligne les conditions préalables en matière de données et de gestion de l'information. Il décrit également les risques spécifiques au gouvernement et les risques liés à l'inaction, dans le cadre des nouvelles approches réglementaires, et se termine par une vision pour une IA fiable au sein du gouvernement.
Gouverner avec l’intelligence artificielle
1. Comment l’intelligence artificielle accélère la transition vers l’administration numérique
Copier le lien de 1. Comment l’intelligence artificielle accélère la transition vers l’administration numériqueDescription
Messages clés
Copier le lien de Messages clésL’intelligence artificielle (IA) a la capacité de transformer nos industries, nos économies, nos administrations et nos sociétés. Pourtant, ses progrès au sein des administrations restent limités.
L’IA peut aider les pouvoirs publics dans trois domaines essentiels : la productivité, la réactivité et la redevabilité.
À chaque étape du cycle de l’action publique, l’IA peut apporter des bénéfices très complémentaires :
automatiser les tâches banales et répétitives
améliorer la productivité dans le cadre des tâches analytiques ou créatives
adapter les services pour répondre aux besoins personnalisés des administrés
adapter les approches pour renforcer la fonction publique
renforcer les processus décisionnels et l'interprétation du présent
mieux anticiper l’avenir
améliorer la gestion de l’information et son accessibilité
détecter les transactions irrégulières et évaluer les risques liés à l’intégrité
permettre aux acteurs non gouvernementaux de comprendre l’administration et d’interagir avec celle-ci, ce qui favorise la redevabilité
créer des opportunités pour les parties prenantes externes, en faisant de l’IA un bien commun
Ces bénéfices ne sont pas exclusifs les uns des autres et peuvent être classés en quatre grandes catégories :
processus et services automatisés, rationalisés et adaptés
amélioration des processus décisionnels, de l’interprétation et des prévisions
amélioration de la redevabilité et détection des anomalies
création d’opportunités pour les parties prenantes externes
Les pouvoirs publics doivent gérer les risques spécifiques liés à l’utilisation de l’IA par l’administration, à savoir : les risques éthiques, les risques opérationnels, les risques d’exclusion, les risques de résistance de la population et les risques d’inaction.
Une vision d’un avenir où les pouvoirs publics parviendraient à développer et adopter une IA digne de confiance pour transformer de manière systématique les processus et les services de l’État commence à émerger.
La transition vers l’administration numérique
Copier le lien de La transition vers l’administration numériqueL’administration numérique est essentielle pour transformer les processus et les services de manière à améliorer la réactivité et la fiabilité du secteur public et à rapprocher les gouvernements de la population. Depuis l’adoption de la Recommandation de l’OCDE sur les stratégies numériques gouvernementales (2014[1]), l’OCDE promeut l’administration numérique dans les pays membres et non membres de l’Organisation, en les accompagnant dans leurs efforts pour gagner en maturité dans le domaine du numérique. Les États matures en termes de compétences numériques reconnaissent que la technologie est un levier stratégique non seulement pour accroître l’efficacité, mais aussi pour rendre les politiques publiques plus efficaces et les administrations plus ouvertes, responsables, innovantes, participatives et dignes de confiance.
La pandémie de COVID-19 a mis en évidence le rôle déterminant des technologies numériques et des données pour renforcer la résilience économique et sociale, grâce à des approches stratégiques, flexibles et innovantes de la part des pouvoirs publics. Bien que la crise multidimensionnelle provoquée par la pandémie ait perturbé l’action publique, elle a également permis de revoir les approches stratégiques en matière d’utilisation des outils et des données numériques dans le but d’améliorer les services publics. N’ayant pas d’autre choix, les administrations ont accompli l’équivalent de plusieurs années de progrès technologiques en quelques semaines et mois seulement. Le déploiement massif de solutions technologiques leur a permis de poursuivre leur mission pendant la crise et d’assurer la continuité des services aux administrés et aux entreprises dans les délais impartis (OCDE, 2020[2] ; [3]). Là où les technologies numériques ou les données n’ont pas été utilisées de manière stratégique ou efficace, la crise a mis en évidence des lacunes, exacerbant certains problèmes que les pouvoirs publics s’efforcent encore aujourd’hui de résoudre.
Actuellement, les gouvernements du monde entier sont confrontés à l’érosion de la confiance envers les institutions (OCDE, 2024[4]), tout en subissant les transformations rapides et profondes induites par la transition numérique. En cette période de bouleversements marquée par la mutation rapide des technologies, des besoins sociétaux en constante évolution et des crises imprévues, il est impératif que les pouvoirs publics soient capables d’exploiter les technologies numériques ainsi que les données numériques et qu’ils disposent des outils nécessaires à cet effet. Ainsi, ils pourront accroître la productivité et la résilience des administrations publiques tout en améliorant la qualité des services publics.
Institutionnalisation de l’administration numérique, avec des niveaux de maturité variables
Pour exploiter tout le potentiel de l’administration numérique, il est essentiel de mettre en place les dispositions institutionnelles, les mécanismes de coordination et les instruments d’action adéquats afin de soutenir les transformations nécessaires à long terme malgré les priorités changeantes de l’action publique. Le Cadre d’action de l’OCDE en matière d’administration numérique (2020[3]) définit six dimensions essentielles pour la mise en place de l’administration numérique :
1. Administration « numérique dès la conception » : concevoir des politiques publiques qui permettent au secteur public d’utiliser les outils numériques et les données de manière cohérente dans l’élaboration des politiques ou la transformation des services publics.
2. Administration centrée sur les données : mettre en place une gouvernance avec les leviers nécessaires favorisant l’accès aux données, leur partage et leur réutilisation au sein du secteur public.
3. Administration plateforme : déployer des composantes communes, telles que des lignes directrices, des outils, des données, une identité numérique et des logiciels, pour accompagner de manière cohérente la transformation des processus et des services de l’État dans l’ensemble de l’administration.
4. Ouverture par défaut : promouvoir une ouverture ne se limitant pas à la publication de données ouvertes, en s’efforçant d’encourager l’utilisation des technologies et des données pour communiquer et interagir avec les différents acteurs.
5. Administration axée sur l’usager : placer les besoins des usagers au centre de la conception et de la mise en œuvre des politiques et des services publics, notamment à travers leur participation et la mesure d’indicateurs d’impact et de satisfaction.
6. Proactivité : anticiper les besoins des usagers et des prestataires de services afin de fournir les services publics de manière proactive.
L’indice de l’administration numérique de l’OCDE (DGI) permet de comparer la maturité des administrations à travers ces six dimensions (Graphique 1.1). Le graphique montre que certains pays sont plus avancés que d’autres en termes de maturité numérique de leurs administrations publiques, l’ensemble des travaux de l’OCDE dans ce domaine montrant par ailleurs que chaque pays est confronté à ses propres difficultés en la matière1.
Graphique 1.1. Indice de l’administration numérique de l’OCDE 2023, résultats composites par pays
Copier le lien de Graphique 1.1. Indice de l’administration numérique de l’OCDE 2023, résultats composites par pays
Note : Les données pour l’Allemagne, les États-Unis, la Grèce, la Slovaquie et la Suisse ne sont pas incluses.
Source : (OCDE, 2024[5]).
Le rôle croissant de l’IA dans l’administration numérique
L’OCDE donne la définition suivante d’un « système d’IA » :
« un système automatisé qui, pour des objectifs explicites ou implicites, déduit, à partir d’entrées reçues, comment générer des résultats en sortie tels que des prévisions, des contenus, des recommandations, ou des décisions qui peuvent influer sur des environnements physiques ou virtuels. » – voir l’exposé des motifs de l’OCDE pour plus de précisions (2024[6] ; [7]).
Les discussions sur l’IA au niveau mondial se concentrent principalement sur le rôle de l’État en tant que régulateur ou investisseur dans le domaine de l’IA, mais il existe des opportunités majeures pour les pouvoirs publics en tant que développeurs et utilisateurs de l’IA. En plus de définir les priorités, les investissements et les réglementations en matière d’IA à l’échelle nationale, les pouvoirs publics ont de plus en plus recours à cette technologie pour concevoir et mettre en œuvre des politiques et des services. Bien que le battage médiatique autour de l’IA se soit intensifié ces dernières années, l’usage de l’IA par les pouvoirs publics n’est pas nouveau : des milliers de projets publics d’IA sont actuellement en cours dans le monde2.
Depuis 2019, l’OCDE œuvre à mieux comprendre les usages et les implications de l’IA dans le contexte particulier de l’action publique. Ses travaux ont notamment consisté à : élaborer des documents de référence sur les fondements techniques de l’IA et ses usages par et pour les pouvoirs publics (2019[8] ; [9]) ; mener une analyse ciblée sur des pays spécifiques (2022[10] ; 2024[11] ; [12]) ; mettre en évidence les tendances en matière d’innovation dans les administrations, souvent liées à l’IA3 ; et établir un cadre préliminaire pour l’utilisation de l’IA dans l’action publique (2024[13]). L’OCDE a également recensé des centaines d’initiatives relatives à l’utilisation de l’IA dans les administrations4.
Le DGI 2023 indique que si certains États ont déployé une vaste gamme d’initiatives visant à renforcer leur capacité d’utilisation de l’IA, la question de la mise en œuvre reste un défi pour la plupart d’entre eux. À la date de publication du DGI, 70 % des pays avaient recouru à l’IA pour améliorer les processus internes des administrations, tandis que 33 % seulement l’avaient utilisée pour améliorer la conception et la mise en œuvre de l’action publique. Bien que son usage se développe, l’impact transformateur de l’IA sur l’action publique reste limité à ce jour. Le DGI 2025 à paraître présentera des chiffres actualisés ainsi qu’une analyse comparative plus approfondie. Il intégrera également des données qualitatives complémentaires afin de mieux comprendre comment les pouvoirs publics peuvent mettre en œuvre les leviers, garanties, mécanismes d’atténuation des risques et dispositifs de participation adéquats pour adopter une IA digne de confiance, tout en contrôlant ses effets indésirables.
Saisir le potentiel transformateur de l’IA
Copier le lien de Saisir le potentiel transformateur de l’IAL’IA constitue l’une des forces transformatrices les plus puissantes du XXIe siècle. Elle transforme nos industries, nos économies, nos administrations et nos sociétés à un rythme sans précédent. Si les pouvoirs publics et les autres acteurs de l’IA parviennent à en exploiter les avantages tout en atténuant les risques, les spécialistes et les chercheurs envisagent un avenir dans lequel cette technologie contribuera à des percées scientifiques et médicales majeures, avec par exemple la découverte de nouveaux traitements contre le cancer, stimulera la croissance de la productivité en la faisant passer d’une hausse estimée entre 1 % et 7 % du produit intérieur brut (PIB) mondial d’ici à 2033 à une multiplication par dix dans les décennies suivantes, permettra d’éliminer la pauvreté et de réduire les inégalités, et aidera à mieux anticiper les aléas climatiques et les catastrophes naturelles (OCDE, 2024[14]).
Bien que l’IA ait suscité un vif intérêt dans le monde entier ces dernières années, la recherche et le développement dans ce domaine remontent à plus de 70 ans. Avant d’examiner plus en profondeur l’utilisation de l’IA dans l’action publique, il convient de rappeler certains éléments de contexte afin de mieux comprendre pourquoi elle est récemment devenue un sujet de discussion généralisé, comme le souligne l’Encadré 1.1.
Encadré 1.1. L’évolution de l’IA
Copier le lien de Encadré 1.1. L’évolution de l’IADepuis les années 1950, quand le mathématicien britannique Alan Turing s’est le premier demandé si les machines peuvent penser, le paysage de l’intelligence artificielle s’est métamorphosé. Pendant des décennies, les systèmes d’IA dits « à base de règles » ou « symboliques » qui ont dominé la recherche reposaient sur une série d’instructions du type « Si... alors... » (si une condition est remplie, alors une action est exécutée), l’enchaînement de ces règles donnant l’apparence d’une action intelligente. Ces systèmes sont limités et nécessitent des connaissances humaines importantes pour programmer les règles. Ils sont encore utilisés aujourd’hui, notamment dans les logiciels d’automatisation robotisée qui reproduisent des tâches programmées par des humains. En raison de leurs limites, certains affirment que les systèmes basés sur des règles, au même titre que l’automatisation robotisée, ne devraient même pas être considérés comme de l’IA à proprement parler.
Au XXIe siècle, des innovations radicales dans un sous-domaine de l’IA que l’on appelle l’apprentissage automatique ont permis d’améliorer la capacité des machines à établir des prédictions à partir de données historiques. L’apprentissage automatique s’intéresse au développement de systèmes capables d’apprendre et de s’adapter sans avoir besoin de suivre des instructions explicites, imitant par là le mode d’apprentissage de l’être humain, de manière à améliorer progressivement leur exactitude, en utilisant des algorithmes et des modèles statistiques pour analyser et déduire des inférences de schémas décelés dans les données. Le processus d’« apprentissage » fondé sur les techniques d’apprentissage automatique est appelé « entraînement ».
L’application des techniques d’apprentissage automatique, la disponibilité d’ensembles de données volumineux et la mise au point de matériels informatiques plus rapides et plus puissants ont convergé pour entraîner une accélération spectaculaire des capacités, de l’impact et de la disponibilité des modèles et des systèmes d’IA. Inspirés du cerveau humain, les réseaux neuronaux sont composés de couches de « neurones », également appelées « nœuds », qui appliquent à des données d’entrée des pondérations et des biais pour obtenir des résultats spécifiques en sortie. Le domaine des réseaux neuronaux comprend un sous-ensemble d’algorithmes – que l’on appelle « réseaux de neurones profonds » (dans le champ d’études et l’ensemble des techniques désignés sous le terme d’apprentissage profond ) – qui permettent à des systèmes fondés sur des machines d’« apprendre » à partir d’exemples à faire des prédictions ou des « inférences » sur la base des gros volumes de données traitées en amont au cours de la phase d’entraînement. En raison de leur complexité, il peut être difficile de comprendre leur fonctionnement ou la façon dont ils aboutissent à un résultat donné.
Avancées conceptuelles récentes
En 2017, les chercheurs de Google ont présenté un type d’architecture de réseau neuronal appelé « transformeur », qui apprend à détecter la façon dont les éléments de données influent les uns sur les autres et dépendent les uns des autres. À la différence des précédents réseaux neuronaux, le transformeur peut traiter les données d’une séquence, par exemple les mots d’un texte, en parallèle. Cette nouveauté est un progrès majeur qui permet aux équipes de développement de concevoir des modèles de langage de plus grande taille, plus efficaces et comportant davantage de paramètres. Cette avancée a largement contribué aux progrès de l’IA générative, avec notamment les grands modèles de langage (GML), qui peuvent produire des contenus inédits et permettre de développer des applications orientées vers les consommateurs, telles que des agents conversationnels avancés accessibles d’une simple pression sur un écran.
Pour beaucoup, l’IA est devenue une réalité en 2022, lorsque ChatGPT (Chat Generative Pre-Trained Transformer, c’est-à-dire Modèle de transformeur génératif conversationnel pré-entraîné) d’OpenAI est devenue l’application grand public ayant connu la plus forte croissance de l’histoire. Les transformeurs ont également contribué à l’avènement des modèles de fondation, c’est-à-dire des modèles entraînés sur de grandes quantités de données, qu’il est possible d’adapter à un large éventail de tâches en aval (autrement dit, d’affiner) et qui peuvent servir comme bases pour la construction d’autres modèles. Bien que les transformeurs soient au cœur des débats, d’autres architectures sont aussi utilisées, notamment pour la génération de données non textuelles comme des images, des vidéos, ou des sons. C’est notamment le cas des réseaux antagonistes génératifs et des modèles de diffusion.
La plupart des IA actuelles sont « étroites » mais certains affirment que des formes plus « générales » d’IA sont en train d’émerger
La plupart des IA actuelles peuvent être considérées comme « étroites », c’est-à-dire conçues pour effectuer une tâche spécifique, mais des spécialistes avancent que les modèles de fondation sont une forme préliminaire d’IA plus « générale ». Les progrès vers l’avènement d’une hypothétique « intelligence artificielle générale » (IAG), un concept controversé que l’on peut décrire comme une machine ayant une intelligence de niveau humain ou supérieure à l’humain dans un large spectre de contextes et de domaines, vont dans ce sens. Les avis divergent quant à la faisabilité d’une IAG, l’horizon auquel elle serait envisageable, ainsi que les possibilités et les difficultés qui pourraient y être associées.
Alors que certains spécialistes pensent qu’une IAG sera développée tôt ou tard, les formes précoces de systèmes d’IA « agentiques », capables de fonctionner de manière relativement autonome sans supervision humaine constante, laissent entrevoir le potentiel de futurs systèmes qui seraient capables de gérer des tâches plus générales avec un minimum d’intervention humaine. Par exemple, des agents basés sur de grands modèles de langage ont d’ores et déjà été mis au point pour effectuer des recherches sur l’internet et en interpréter les résultats, en toute autonomie, pour le compte des utilisateurs. Ces systèmes sont encore à un stade embryonnaire et comportent de nombreuses limitations ainsi que des risques, mais leur développement à venir pourrait ouvrir de nouvelles perspectives dans tous les secteurs.
À mesure que les systèmes d’IA deviennent de plus en plus performants, un consensus émerge pour affirmer que les décisions ne devraient pas êtres confiées exclusivement aux machines et qu’une collaboration homme-machine doit être privilégiée, l’IA devant intervenir pour assister la prise de décision humaine.
Note : La référence Hello World: Artificial intelligence and its use in the public sector (2019[8]) de l’OCDE contient des informations détaillées sur les fondements techniques de l’IA et ses implications potentielles.
Source : (OCDE, 2024[15]), (OCDE, 2024[14]), (OECD.AI, 2023[16]), (Lorenz, Perset et Berryhill, 2023[17]), (Berryhill et al., 2019[8]), (Cognitus, 2024[18]) , (Purdy, 2024[19]) ; (NIST, 2025[20]) ; (Horvitz, 2014[21]) ; (Brizuela et al., 2025[22]) ; et https://playbooks.aip.gov.sg/agentic-ai-primer.
Malgré l'engouement, les progrès de l’IA restent limités
Les données de l’Observatoire OCDE des politiques relatives à l’IA illustrent l’explosion de l’intérêt pour l’intelligence artificielle ces dernières années. Par exemple, le Graphique 1.2 montre une très forte croissance des investissements en capital-risque dans l’IA au fil du temps. Malgré cet engouement, le dernier « cycle d’attentes » publié par le cabinet de conseil Gartner considère que l’IA générative vient tout juste de passer son « pic d’attentes exagérées » et amorce sa descente vers le « creux de la désillusion », « alors que l’attention des entreprises se détourne de l’excitation entourant les modèle de fondation, au profit des cas d’usage concrets générant un retour sur investissement » (Gartner, 2024[23]). Cela dit, Gartner prévoit que l’IA générative et certaines autres formes d’IA, telles que le calcul intensif appliqué à l’IA ou l’utilisation de l’IA pour soutenir et appliquer des politiques de gouvernance, de confiance, de gestion des risques et de sécurité, atteindront une productivité plus aboutie dans un délai d’à peine deux à cinq ans.
Graphique 1.2. Les investissements en capital-risque dans l’IA ont augmenté au fil des années
Copier le lien de Graphique 1.2. Les investissements en capital-risque dans l’IA ont augmenté au fil des annéesInvestissements en capital-risque dans l’IA par pays depuis 2012, en millions USD
Note : Une note de méthode contenant de plus amples informations est disponible à l’adresse https://oecd.ai/p/methodology. La hausse des investissements en 2021 est en partie liée à l’augmentation des investissements dans l’IA dans le domaine « soins de santé, médicaments et biotechnologie », pendant la pandémie de COVID-19. Un pic significatif a également été observé cette année-là dans le domaine « mobilité et véhicules autonomes ».
Source : OECD.AI (2025), visualisations créées par JSI à partir de données de la plateforme Preqin, dernière mise à jour le 3 juin 2025, consulté le 16 juin 2025, www.oecd.ai.
Bien que certains spécialistes prévoient des gains économiques importants grâce à l’IA, les travaux de l’OCDE (2024[24]) indiquent que la croissance devrait être plus modérée, les estimations de croissance annuelle de la productivité se situant entre 0.25 et 0.6 points de pourcentage au cours des dix prochaines années dans les pays les mieux préparés à intégrer l’IA. Les études indiquent que l’IA améliore la productivité des travailleurs à titre individuel (OCDE, 2023[25] ; Bengio et al., 2025[26]), mais peu de données empiriques mettent en évidence un lien entre ces gains de productivité et une amélioration globale des performances organisationnelles et économiques. Cela s’explique en partie par le fait que certaines tâches ne peuvent pas encore être réalisées par l’IA, et que toutes les organisations ou tous les travailleurs ne sont pas prêts à l’adopter. Certaines données laissent penser que les entreprises qui adoptent l’IA sont plus productives et se développent plus rapidement que celles qui ne l’adoptent pas (Calvino et Fontanelli, 2023[27] ; Hampole et al., 2025[28]), mais il ne faut pas y voir un lien de causalité avéré. À ce jour, des limites importantes subsistent. D’après les statistiques du Bureau du recensement (Census Bureau) des États-Unis, 5 à 6 % seulement des entreprises américaines utilisent l’IA pour produire des biens et des services, et seulement 7 % prévoient de l’adopter dans les mois à venir (Williams, 2025[29]). À l’échelle mondiale, une étude estime que 26 % seulement des entreprises disposent des capacités nécessaires pour tirer une valeur réelle de l’IA, et que 4 % seulement y parviennent (BCG, 2024[30])5.
Au-delà des gains économiques, l’IA commence à révéler son potentiel pour générer des retombées positives au sein de la société. Toutefois, son impact ne s’est pas encore véritablement manifesté. Par exemple, l’IA appliquée au domaine scientifique a déjà contribué à des avancées notables dans la robotique, la fusion nucléaire, la découverte de médicaments, la génération d’anticorps et le repliement des protéines (OCDE, 2023[31]). Malgré ces premiers succès, de nombreuses utilisations demeures localisées ou expérimentales et une transformation systémique à l’échelle mondiale reste encore à concrétiser. La contribution de l’IA à la science n’en est qu’à ses débuts et, dans certains domaines, la technologie a pu produire des résultats en deçà des attentes. Par exemple, certains ont estimé que l’IA a eu peu d’impact sur la recherche pendant la pandémie de COVID-19 (OCDE, 2023[31]). Jusqu’à présent, l’IA a surtout permis des avancées dans un nombre restreint de sciences naturelles et physiques. Dans d’autres disciplines, comme les sciences sociales, les transformations comparables sont plus lentes, malgré des attentes élevées (Manning, Zhu et Horton, 2024[32]). Ainsi, alors que les retombées positives de l’IA pour la société commencent à se manifester, l’étendue complète de son potentiel transformateur reste encore à découvrir.
L’utilisation de l’IA dans les administrations : un contexte particulier
Copier le lien de L’utilisation de l’IA dans les administrations : un contexte particulierAu-delà de leur rôle de régulateurs veillant à instaurer des conditions pour un usage de l’IA digne de confiance, les pouvoirs publics cherchent également à intégrer cette technologie pour mieux gouverner. À l’instar du secteur privé, l’utilisation de l’IA dans les administrations promet des bénéfices considérables, tout en soulevant de nombreux risques et défis. Une enquête menée par Deloitte (2024[33]) auprès de 2 770 dirigeants dans 14 pays révèle ainsi que les responsables du secteur public sont deux fois plus nombreux que ceux de l’industrie à anticiper une transformation organisationnelle à court terme sous l’effet de l’IA. Toutefois, ils se montrent plus prudents et moins convaincus que cette transformation se traduira par des gains de productivité. Le sujet n’est apparu que récemment comme un thème central dans les publications sur la gestion publique, tout comme dans l’agenda de nombreux gouvernements (Mergel et al., 2023[34] ; Mellouli, Janssen et Ojo, 2024[35]). Cette évolution s’explique par une conjonction de facteurs : les récentes avancées technologiques rendant les applications d’IA plus pratiques et performantes pour un usage public (voir Encadré 1.1) ; l’accès des administrations à de grandes quantités de données susceptibles d’alimenter les systèmes d’IA ; et les pressions budgétaires constantes qui renforcent l’attrait de l’IA comme levier de rationalisation et de réduction des coûts. Malgré cela, l’adoption de l’IA dans les administrations reste à la traîne par rapport au secteur privé.
Si certains enseignements peuvent être tirés des initiatives menées dans l’industrie, notamment en ce qui concerne les facteurs de réussite (Santos et al., 2024[36]), l’usage de l’IA dans le secteur public s’inscrit dans une finalité et un cadre fondamentalement différents, ouvrant la voie à des opportunités singulières tout en soulevant des défis spécifiques. Par ailleurs, l’IA est un domaine complexe qui évolue rapidement et nécessite un effort d’apprentissage important de la part des fonctionnaires et des décideurs. Lorsqu’elle est déployée de manière judicieuse dans l’administration, l’IA peut cependant améliorer la qualité ainsi que l’efficacité des services publics, de l’action publique et des modes opératoires de l’État, avec des effets d’entraînement majeurs sur l’économie et la société (Berglind, Fadia et Isherwood, 2022[37]).
Les pouvoirs publics exercent une influence considérable et leurs décisions ont des répercussions dans la vie des gens, ce qui leur confère, à l’égard de l'intérêt général, un devoir de vigilance plus important que celui des entreprises (OCDE, 2023[38] ; Santiso, 2023[39]). Ils ont ainsi une responsabilité particulière : déployer l’IA en minimisant ses effets négatifs et en veillant à ce que son usage serve en priorité le bien-être des individus et des groupes de la population. Cela vaut en particulier lorsque l’IA est déployée dans des domaines sensibles de l’action publique, tels que le maintien de l’ordre, le contrôle de l’immigration, les prestations sociales et la prévention des fraudes (OCDE, 2024[13]).
Les pouvoirs publics ont également un mandat unique : ils servent l’intérêt général et sont financés par des ressources publiques. À ce titre, leurs actions, en particulier celles liées à l’usage des données et des technologies numériques, doivent être guidées par des principes garants des valeurs démocratiques, des droits individuels et de l’État de droit. À la différence des acteurs privés, qui peuvent être guidés par l’efficacité ou le profit, les pouvoirs publics sont tenus d’agir de manière transparente et en tenant compte de l’intérêt général dans une plus large mesure que les entreprises.
Principaux domaines d’opportunités et bénéfices de l’IA pour l’action publique
Copier le lien de Principaux domaines d’opportunités et bénéfices de l’IA pour l’action publiqueLes pouvoirs publics peuvent tirer parti des capacités offertes par l’IA en devenant développeurs et utilisateurs de cette technologie afin de transformer la prestation de services, l’élaboration des politiques publiques, les opérations internes et les fonctions de contrôle. Les gouvernements du monde entier sont confrontés à un moment charnière. Face aux progrès rapides des technologies d’IA, ils cherchent à saisir les opportunités offertes pour innover et moderniser l’administration publique, tout en gérant et en atténuant les risques associés (présentés ci-dessous) ainsi que les défis liés à la mise en œuvre (abordés au Chapitre 3).
L’adoption de l’IA dans l’administration ouvre de nouvelles perspectives. Après des années de recherche sur le sujet et de collaboration avec des gouvernements du monde entier, l’OCDE (2024[13]) a identifié trois domaines d’opportunités concrètes pour l’usage de l’IA dans les administrations :
Productivité, grâce à des opérations internes plus efficientes et une meilleure efficacité en termes d’élaboration des politiques, de processus décisionnels et de prestation de services. Par exemple, les systèmes d’IA prédictive peuvent rendre la planification de l’action publique plus efficace, automatiser les processus pour accélérer la prestation de services et améliorer les performances en permettant aux fonctionnaires de délaisser les tâches banales pour se consacrer aux activités essentielles à leur mission.
Réactivité des politiques et des services publics, en améliorant la conception et la prestation de services pour mieux répondre à l’évolution des besoins des citoyens et de certains groupes de la population, ainsi qu’en renforçant les mécanismes de participation citoyenne. L’IA permettrait également de proposer une offre de services publics plus personnalisée de manière plus proactive.
Redevabilité, en renforçant les capacités de contrôle et de transparence, par exemple grâce au suivi en temps réel. Cette évolution peut améliorer la satisfaction générale de la population et renforcer l’image d’une administration compétente, juste et réactive, contribuant ainsi à accroître la confiance dans la capacité de l’État à innover et à se transformer.
Le Tableau 1.1 montre comment différentes tâches relevant de l’IA peuvent soutenir les activités des pouvoirs publics et contribuer à ces domaines d’opportunités.
Tableau 1.1. Comprendre l’utilisation de l’IA dans l’administration
Copier le lien de Tableau 1.1. Comprendre l’utilisation de l’IA dans l’administration|
Tâches de l’IA |
Activité de l’administration |
Domaine d’opportunité |
|
- Reconnaissance - Détection d’évènements - Prévisions - Personnalisation - Aide aux interactions - Optimisation axée sur des objectifs - Génération de contenu - Raisonnement avec des structures de connaissances |
Opérations internes |
Productivité (efficience et efficacité) |
|
Élaboration de l’action publique |
||
|
Réactivité |
||
|
Prestation des services |
||
|
Redevabilité |
||
|
Contrôle interne et externe |
Note : La colonne « Tâches de l’IA » a été adaptée à partir des « Tâches du système d’IA » du Cadre de l’OCDE pour la classification des systèmes d’IA (2022[40]).
Source : (OCDE, 2024[13]).
Principaux bénéfices de l’IA pour l’action publique
Afin d’orienter les décisions d’investissement, il est essentiel que les fonctionnaires, et en particulier les décideurs aux postes de direction, comprennent les bénéfices potentiels de l’IA. Une étude de la Commission européenne (CE) (2024[41]), menée auprès de 576 gestionnaires publics dans sept pays, montre que la perception des bénéfices de l’IA est un facteur déterminant dans l’adoption de cette technologie. L’IA peut renforcer les processus décisionnels à différents stades du cycle de l’action publique (Graphique 1.3)6. Les sections suivantes présentent les principaux bénéfices associés à l’utilisation de l’IA dans les administrations. Ces bénéfices ne sont pas exclusifs les uns des autres et sont même très complémentaires, voire interdépendants dans quatre grandes catégories : processus et services automatisés, rationalisés et adaptés , amélioration des processus décisionnels, de l’interprétation et des prévisions ; amélioration de la redevabilité et détection des anomalies ; et création d’opportunités pour les parties prenantes externes, en faisant de l’IA un bien commun. Il convient toutefois de souligner que l’utilisation de l’IA dans les administrations s’accompagne de risques potentiels. Dans certains cas, ces risques peuvent même inverser ou annuler les bénéfices escomptés. Ces risques font l’objet d’un examen approfondi dans la section suivante.
Graphique 1.3. L’IA à chaque étape du cycle de l’action publique
Copier le lien de Graphique 1.3. L’IA à chaque étape du cycle de l’action publique
Source : (Pencheva, Esteve et Mikhaylov, 2018[42]), adapté pour correspondre à la terminologie de l’OCDE ci-dessous.
Des processus et des services automatisés, rationalisés et adaptés
L’automatisation rendue possible par l’IA peut contribuer soit à automatiser directement les processus et les services existants, soit à repenser en profondeur la manière dont les administrations fonctionnent, tant au niveau de leurs opérations internes que des services rendus à la population. En exploitant les énormes volumes de données dont ils disposent, les pouvoirs publics peuvent également utiliser l’IA pour concevoir des services sur mesure, adaptés aux besoins spécifiques d'individus ou de groupes particuliers. Ces avancées permettent non seulement de rendre l’administration plus efficace, efficiente et réactive, mais aussi d’améliorer la qualité des emplois et le bien-être des fonctionnaires en leur permettant de se concentrer sur des missions à plus forte valeur ajoutée. Des études montrent que ce phénomène améliore le bien-être des travailleurs. Près de deux tiers des professionnels interrogés dans le cadre d’une enquête menée par l’OCDE (2023[25]) ont déclaré que l’IA avait accru leur satisfaction au travail, or des études ont montré que ce critère peut contribuer au bien-être des travailleurs (Brougham et Haar, 2017[43] ; Xu, Xue et Zhao, 2023[44]). Cela dit, certaines utilisations de l’IA peuvent à l'inverse nuire à la qualité des emplois ou entraîner des réductions d’effectifs dans la fonction publique, comme évoqué plus loin.
Automatiser les tâches banales et répétitives
L’IA peut être un levier puissant pour améliorer l’efficacité des opérations internes et des activités de prestation de services, en réduisant le temps que les fonctionnaires consacrent à des tâches monotones (OCDE, 2024[13]). En général, les opérations internes sont répétitives et ne nécessitent pas de réflexion analytique approfondie ni de jugement humain complexe. En automatisant ces tâches, l’IA permet de rationaliser les flux de travail, de réduire les erreurs, d’optimiser l’allocation des ressources et de libérer des ressources humaines pour des missions plus complexes, nécessitant davantage de jugement. En fin de compte, l’automatisation se traduit par une prestation de services publics plus efficiente et de meilleure qualité (OCDE/UNESCO, 2024[12]).
Voici une liste comprenant certaines tâches répétitives et chronophages :
Saisie de données : saisie manuelle de données dans divers systèmes et bases de données.
Traitement de la paie : calcul et versement des salaires et des prestations des agents.
Demandes de renseignements simples des usagers : traitement des demandes de renseignements simples et fourniture de renseignements à la population.
Vérification d’informations : contrôle et vérification de l’authenticité des documents.
Traitement de formulaires : gestion et traitement de divers formulaires de demande.
Courriers électroniques et correspondance : tri, réponse et suivi des courriers électroniques et de la correspondance officiels.
Pour ce type de tâches, les pouvoirs publics peuvent recourir à un large éventail de systèmes d’IA, allant de simples outils fondés sur des règles à des modèles reposant sur l’apprentissage automatique, comme les agents conversationnels alimentés par des GML. Ces systèmes offrent une gamme étendue de fonctionnalités, allant de la gestion des demandes simples (qu’elles proviennent d’administrés ou d’autres fonctionnaires) à la génération de contenus personnalisés totalement inédits ou à l’optimisation de l’allocation des ressources (Lorenz, Perset et Berryhill, 2023[17] ; Sapci et Sapci, 2019[45]).
À titre d’exemple, l’Argentine a mis en place le système Prometea, fondé sur l’IA, pour automatiser les tâches répétitives et accélérer le traitement des dossiers dans l’administration judiciaire (voir Chapitre 5, Encadré 5.62). Comme évoqué plus loin, l’automatisation par l’IA peut toutefois comporter des risques que les pouvoirs publics doivent anticiper, notamment dans des domaines comme l’administration judiciaire. Dans le cas de Prometea, l’Argentine cherche à limiter ces risques en maintenant un contrôle humain sur l’usage du système d’IA et l’exploitation de ses résultats (Corvalán et Le Fevre Cervini, 2020[46]).
Améliorer la productivité dans le cadre des tâches analytiques ou créatives
L’IA contribue également à la productivité en facilitant la découverte de nouvelles idées et en proposant des modes de travail plus efficaces et efficients (Jones, 2022[47]). L’un de ses atouts majeurs réside dans sa capacité à aider les administrations à traiter, gérer, analyser et synthétiser une documentation volumineuse (OCDE/UNESCO, 2024[12]). Divers outils basés sur l’IA peuvent s’avérer utiles, mais les GML s’imposent comme des assistants puissants pour les fonctionnaires, notamment pour la recherche, le résumé de contenus ou la synthèse d’informations (Berglind, Fadia et Isherwood, 2022[37]). Des recherches menées auprès de professionnels du savoir dans le secteur privé montrent que l’usage de l’IA peut améliorer les performances individuelle et collective, tout en favorisant la collaboration interdisciplinaire (Dell’Acqua et al., 2025[48]). Les pouvoirs publics peuvent ainsi s’appuyer sur ces technologies pour alléger la charge de travail des fonctionnaires et améliorer l’accès à l’information, tant pour les administrés que pour les autres fonctionnaires.
Voici certains usages pertinents :
Traitement et catégorisation des informations textuelles : les outils d’IA peuvent analyser rapidement et avec précision de grands volumes de textes non structurés, en extraire les éléments clés et produire des résumés. Cela accroît l’efficacité des services qui traitent une grande quantité d’informations, dans des domaines comme les affaires juridiques ou les processus administratifs (OCDE/UNESCO, 2024[12]). Les flux de travail s’accélèrent et le risque d’erreur humaine est réduit, ce qui permet d’obtenir des résultats plus précis et plus fiables dans le cadre des opérations internes et des activités de prestation de services.
Rédaction de documents et de textes juridiques : les systèmes d’IA peuvent générer des avant-projets pour différents types de documents, à partir de modèles et de la législation existante. Ce processus permet de garantir le respect des normes tout en économisant du temps et des ressources. Ces outils peuvent aussi comparer les nouveaux textes aux législations en vigueur pour repérer d’éventuelles contradictions et minimiser les erreurs humaines. Dans la rédaction de rapports, les outils d’IA peuvent suggérer de manière automatique des structures plus claires et plus concises. Ils peuvent également améliorer la communication de rapports volumineux, en les résumant pour les diffuser aux décideurs ou auprès de la population.
Interpréter des données non structurées : l’IA peut analyser et synthétiser de grandes quantités d’informations issues de processus participatifs, de retours sur les services publics et de consultations citoyennes, afin d’en tirer des recommandations exploitables. Elle peut détecter les thèmes récurrents, regrouper les opinions, repérer les valeurs aberrantes, mener des analyses de sentiments ou encore classer les mesures envisageables en fonction des préférences exprimées. Cette utilisation de l’IA peut aider à identifier les nouveaux enjeux, à mieux prendre en compte les attentes des parties prenantes et à gérer les retombées potentielles de l’action publique.
Des études montrent que les systèmes d’IA générative permettent de réduire le temps consacré à certaines tâches tout en améliorant la qualité. Elles montrent également que ces outils ont un impact plus important sur la productivité des travailleurs moins qualifiés, comme les débutants, en leur permettant de combler l’écart avec leurs collègues plus expérimentés (Noy et Zhang, 2023[49] ; Peng et al., 2023[50]). Cet effet de rattrapage pourrait générer des gains de productivité en permettant aux travailleurs d’accomplir des tâches autrefois réservées aux experts (OCDE, 2023[25]). Toutefois, certaines études indiquent également que l’IA pourrait aussi creuser le fossé entre les travailleurs hautement qualifiés et les autres, et que les systèmes actuels permettent certes d’accroître la productivité des travailleurs mais qu’ils sont encore incapables de se substituer aux humains pour réaliser de nombreuses tâches (The Economist, 2025[51] ; Dell’Acqua et al., 2023[52] ; Bengio et al., 2025[26]). De nouvelles études sont nécessaires, notamment sur les bénéfices et les limites spécifiques de l’IA pour les fonctionnaires.
À titre d’exemple, l’administration fiscale britannique utilise l’IA pour rédiger des descriptions de postes et pour analyser et évaluer les qualifications des candidatures, afin d’accélérer les procédures de recrutement (Encadré 5.20). Comme évoqué plus loin, l’IA peut présenter des risques lorsqu’elle n’est pas utilisée dans un cadre digne de confiance.
L’IA peut également agir comme catalyseur de créativité et d’innovation chez les fonctionnaires, en transformant la manière dont les processus internes ainsi que les services et l’action publics sont conçus et mis en œuvre. L’IA générative, par exemple, peut aider à explorer les alternatives en matière d’action publique, simuler des scénarios, rédiger des textes législatifs ou concevoir des prototypes de services, pour une administration publique plus imaginative et expérimentale. Par exemple, le Government Communication Service (service de communication du gouvernement) britannique développe un outil conversationnel alimenté par l’IA pour générer des ébauches de textes, de plans et d’idées stratégiques, tout en intégrant les lignes directrices en matière de communication et les données concernant le public cible, avec l’objectif de produire des résultats de qualité conformes à la législation (Encadré 5.39). Conçu comme un assistant collaboratif, il stimule la créativité, réduit la charge des tâches routinières et est progressivement déployé à la suite de phases pilotes concluantes et d’ajustements successifs grâce à l’IA.
Adapter les services pour répondre aux besoins personnalisés des administrés
L’IA peut aider les administrations à mieux cerner les besoins ainsi que les comportements des administrés et à faciliter la fourniture de renseignements et de services ciblés et personnalisés à l’échelle individuelle (Huang et Rust, 2021[53] ; Flavián et Casaló, 2021[54] ; OCDE, 2020[3]). Elle peut ainsi permettre d’élaborer des profils individualisés d’administrés, de générer et de diffuser des informations adaptées, ou encore de concevoir des services en fonction de besoins spécifiques (Nations Unies, 2022[55]). En renforçant la réactivité de l’administration, ces démarches rendent les services plus efficaces, efficients et centrés sur l’usager, ce qui se traduit par une plus grande satisfaction, de meilleurs résultats et une capacité accrue à répondre de manière flexible et proactive aux attentes de la population.
Cette approche permet aussi de mieux prendre en compte les besoins de sous-groupes d’usagers, y compris les groupes vulnérables et défavorisés, qui peuvent avoir des besoins particuliers fortement liés au contexte (Giest, 2017[56]). L’usage d’outils d’IA à des fins de personnalisation s’est étendu à plusieurs secteurs des services publics, en lien notamment avec des évènements de vie tels que la naissance d’un enfant, l’entrée dans un parcours éducatif ou un mariage, pour lesquels des services peuvent être proposés de manière anticipée (Kopponen et al., 2024[57]).
Les pouvoirs publics peuvent également exploiter la capacité de l’IA à analyser de vastes ensembles de données comportementales pour mieux appréhender l’hétérogénéité des personnes, en intégrant dans la conception des services des facteurs cognitifs et contextuels, comme le moment, le lieu ou les préférences personnelles. Cela permet de proposer des interventions publiques plus adaptatives et équitables, en adéquation avec les situations particulières des administrés, tout en respectant leur autonomie et leur capacité à prendre des décisions éclairées (Mills, Costa et Sunstein, 2023[58]).
Au-delà de l’amélioration des services eux-mêmes, l’IA peut aussi optimiser les communications sur leur disponibilité et, partant, le recours à ces services. En s’appuyant sur les données administratives existantes, elle peut simplifier les démarches en pré-remplissant (ou en supprimant) certains formulaires à partir d’informations déjà connues ou en adaptant les questions posées à la situation de l’usager, ce qui permet de réduire le temps et les efforts nécessaires pour accomplir des tâches administratives. Ce type de système est déjà mis en œuvre de manière limitée dans certains programmes sociaux, grâce à des algorithmes conçus par des humains et à l’exploitation des données administratives (OCDE, 2024[59]). Cette approche ciblée peut contribuer à ce que les administrés reçoivent efficacement les informations dont ils ont besoin et que les interactions avec les services publics soient rationalisées et conviviales.
Les exemples concrets de ces bénéfices incluent notamment une grande variété d’agents conversationnels et d’assistants virtuels capables de répondre à des demandes spécifiques des administrés avec des informations personnalisées. À titre d’exemple, l’administration fiscale de Singapour propose un agent conversationnel accessible au public qui est capable de fournir des informations et des services adaptés à chaque situation (Encadré 5.4). Autre exemple : certains systèmes de protection sociale utilisent l’IA pour mener des campagnes de sensibilisation proactives et inciter les ayants droit à recourir aux services disponibles (Encadré 5.49).
Il est toutefois important de rappeler que ces services reposent souvent sur une collecte et une analyse approfondies de données destinées à déterminer les caractéristiques et les besoins des personnes. Les pouvoirs publics devraient procéder à ces collectes de données et utiliser l’IA d’une manière digne de confiance. En cas contraire, comme évoqué plus loin, ces efforts risquent de porter atteinte au libre exercice des droits humains et notamment au respect de la vie privée.
Adapter les approches pour renforcer la fonction publique
L’IA peut également contribuer au renforcement de la fonction publique en rendant les processus de recrutement plus efficaces et inclusifs et en permettant la mise en place de parcours de développement professionnel personnalisés. En matière de gestion des ressources humaines (GRH), par exemple, l’IA peut aider les pouvoirs publics à optimiser leurs décisions de recrutement, en identifiant les meilleurs candidats pour un poste donné et en favorisant l’inclusivité grâce à la limitation des biais humains.
L’IA peut aussi renforcer les capacités des fonctionnaires, soutenir le développement de l’apprentissage, favoriser la création de connaissances et optimiser les plateformes d’apprentissage destinées au développement des compétences. Elle peut notamment élaborer des stratégies de développement des compétences, concevoir et animer des formations sur mesure et mettre en œuvre des outils facilitant l’accès à l’information. Ce faisant, l’IA contribue à assurer que les fonctionnaires disposent des dernières connaissances et compétences nécessaires pour répondre aux exigences en constante évolution de leurs fonctions, contribuant ainsi à une administration plus réactive.
Les applications pertinentes de l’IA dans ce domaine incluent notamment les points suivants :
Élaboration des supports pédagogiques pour les fonctionnaires : l’IA peut créer des contenus d’apprentissage (tels que des modules et des supports de cours) à partir de documents sources, en intégrant des informations diverses pour produire des ressources efficaces. Elle est également capable de concevoir, structurer et déployer des formations en ligne. Les outils fondés sur l’IA peuvent actualiser et enrichir en permanence ces ressources au gré de l’apparition de nouvelles informations, renforçant ainsi l’éducation et le développement des compétences au sein de la fonction publique.
Personnalisation des contenus et des parcours de formation pour les fonctionnaires : l’IA peut adapter le contenu éducatif et les parcours d’apprentissage aux besoins, préférences et niveaux d’avancement de chaque fonctionnaire, offrant ainsi une expérience d’apprentissage plus efficace, interactive et évolutive. En dotant les fonctionnaires des compétences adéquates de manière plus efficace, cette personnalisation accroît aussi la capacité de réaction de l’administration.
Identification et recensement des ressources d’apprentissage : les outils d’IA peuvent repérer, décrire et classer de multiples ressources pédagogiques, les rendant facilement accessibles et partageables. Cela simplifie la recherche des ressources et l’identification des contenus pertinents pour les apprenants. Par exemple, l’intégration de l’IA dans les plateformes numériques peut améliorer les fonctions d’organisation, de classement et de recherche de ces contenus.
À titre d’exemple, l’Australian Public Service Commission (commission australienne de la fonction publique) a mené un projet pilote de six semaines visant à tester la capacité de l’IA à concevoir, structurer et déployer une formation en ligne sur les compétences numériques destinée aux cadres (voir Encadré 5.22). Pour une analyse approfondie de ce sujet, voir la section du Chapitre 5 consacrée à la réforme de la fonction publique.
Amélioration des processus décisionnels, de l’interprétation et des prévisions
Les spécialistes de l’IA ont identifié l’amélioration des processus décisionnels, de l’interprétation et des prévisions comme les bénéfices les plus importants de l’IA de façon générale, et ils recommandent aux pouvoirs publics d’intensifier leurs actions et d’investir davantage dans ces domaines (OCDE, 2024[14]). Comme évoqué plus loin, les pouvoirs publics doivent chercher à tirer profit de ces bénéfices tout en faisant preuve de prudence pour éviter une dépendance excessive à l’IA. Les défaillances du système peuvent effectivement être difficiles à détecter, et une délégation trop importante du jugement humain aux machines pourrait entraîner la propagation systémique d’erreurs et causer des dommages concrets.
Renforcer les processus décisionnels et l'interprétation du présent
Grâce à des analyses exploitables fondées sur les données, l’IA peut aider les administrations à accroître l’efficacité et l’efficience de leurs interventions, à optimiser l’allocation des ressources et à mieux cerner les problèmes et les solutions liés à l’action publique. Les pouvoirs publics peuvent ainsi répondre plus efficacement aux nouveaux enjeux, élaborer des politiques publiques fondées sur des éléments probants, renforcer leur réactivité et leur redevabilité globales et, en fin de compte, promouvoir le bien-être dans la société.
L’IA peut être bénéfique sous différentes formes tout au long du cycle de l’action publique (Graphique 1.3) :
Définition du programme d’action et formulation des politiques publiques : l’IA peut jouer un rôle déterminant en attirant l’attention des décideurs sur certaines questions et en contribuant à la définition des priorités pour l’action publique, grâce à une formulation des problèmes sociaux permettant de mieux répondre aux besoins réels. À titre d’exemple, l’IA aide les pouvoirs publics à surveiller l’évolution des nouveaux enjeux et à les interpréter en temps réel à partir de vastes ensembles de données représentatives, améliorant ainsi la précision et la rapidité de la définition du programme d’action (Valle-Cruz et al., 2020[60] ; Kolkman, 2020[61]). En détectant les défis à venir plus tôt et de manière plus précise, l’IA favorise des réponses plus rapides de la part des pouvoirs publics, qui peuvent ainsi intervenir avant que les problèmes ne s’aggravent (OCDE/UNESCO, 2024[12] ; Höchtl, Parycek et Schöllhammer, 2015[62]). Pendant la phase de formulation des politiques publiques, elle peut influer sur le processus décisionnel en mettant en avant des données et des informations importantes concernant certains problèmes (Valle-Cruz et al., 2020[60]). Les analyses fondées sur l’IA peuvent fournir des éclairages qui permettent d’estimer non seulement les impacts probables de l’action publique, mais aussi d’identifier les populations cibles et d’établir un diagnostic socio-économique pour aider à prendre des décisions éclairées (Wirjo et al., 2022[63] ; Ubaldi et al., 2019[9]). Elle peut aussi proposer des scénarios alternatifs de politiques publiques et permettre une évaluation ex ante plus approfondie (Desouza et Jacob, 2014[64]).
Mise en œuvre des mesures. Lors du passage à la phase de mise en œuvre, l’automatisation pilotée par l’IA, le traitement rapide des données et l’analyse en temps réel permettent d’améliorer la qualité, la rapidité et l’efficacité de la mise en œuvre des mesures. Les analyses alimentées par l’IA permettent notamment de renforcer et d’accélérer l’acquisition de données et d’informations, ce qui favorise l’amélioration continue des politiques. L’analyse des données en temps réel peut faciliter les améliorations à grande échelle et, en fin de compte, améliorer la prestation des services dans le cadre de la mise en œuvre des mesures (Valle-Cruz et al., 2020[60] ; OCDE/UNESCO, 2024[12]).
Contrôle et évaluation. L’IA peut suivre les interventions publiques en temps réel, ce qui permet un meilleur éclairage du processus d’action publique, facilitant l’évaluation précise et actualisée de données et l’ajustement rapide des politiques lorsque cela s’avère nécessaire (OCDE, 2020[65] ; OCDE/UNESCO, 2024[12]).
L’accessibilité des données et l’augmentation de la puissance de calcul confèrent dans certains cas à l’IA un avantage concurrentiel sur l’humain pour ce qui est des processus décisionnels (Green, 2022[66]). Par exemple, les GML peuvent soutenir le raisonnement individuel et des données probantes attestent des bénéfices concrets des processus décisionnels assistés par l’IA (Brynjolfsson, Danielle et Raymond, 2023[67]). Les systèmes d’IA peuvent améliorer les décisions humaines en atténuant les erreurs de raisonnement et les erreurs cognitives, en aidant à filtrer le « bruit », c’est-à-dire la variabilité indésirable dans les décisions humaines, ainsi que les influences parasites susceptibles de produire des décisions incohérentes ou inexactes (Du, 2023[68]). 7 La capacité des systèmes d’IA à fonder ses décisions sur des données explique son adoption dans de nombreux secteurs, y compris au sein des administrations publiques. Elle permet d’identifier et de corriger les éléments qui altèrent le jugement humain dans divers domaines de l’action publique (Mills, Costa et Sunstein, 2023[58]).
Par ailleurs, le bruit peut masquer des éclairages essentiels sur le comportement humain alors que l’IA est en mesure de les identifier et de les quantifier, contribuant ainsi à l’élaboration de politiques plus précises (Aonghusa et Michie, 2020[69]). Les algorithmes peuvent réduire considérablement le bruit en garantissant la cohérence des résultats, indépendamment des facteurs contextuels, tels que l’humeur ou le moment de la journée. En révélant des schémas comportementaux jusqu’alors invisibles ou négligés, l’IA permet aux décideurs de mieux comprendre les tendances systémiques et les incohérences dans les processus décisionnels (Ludwig et Mullainathan, 2022[70]). Si la suppression du bruit ne permet pas d’éliminer toutes les erreurs, elle renforce néanmoins la fiabilité, en réduisant les disparités arbitraires dans les décisions rendues par l’administration dans différents domaines, comme la justice ou les services publics (Sunstein, 2023[71]).
À mesure que la présence de l’IA dans l’administration publique s’accroît, il devient essentiel de comprendre les processus psychologiques et cognitifs qui dictent les interactions humaines avec ces technologies. L’approche comportementale de l’administration publique peut apporter des éclairages précieux sur les difficultés susceptibles d’émerger, en proposant des stratégies pour les atténuer et renforcer la qualité de la gouvernance et des processus décisionnels (Alon-Barkat et Busuioc, 2024[72])8. À titre d’exemple, certaines administrations utilisent Polis, un outil de participation civique en open source permettant de comprendre les opinions des citoyens, ainsi que les points de consensus et de désaccord sur les questions de politiques publiques (Encadré 5.36). Dans le domaine de la gestion des finances publiques, la Corée a développé dBrain+, un système d’information exploitant l’IA pour analyser en temps réel les données économiques, fiscales et financières afin d’optimiser l’évaluation des risques et les processus décisionnels en matière de finances publiques (Encadré 5.8).
Mieux anticiper l’avenir
Les systèmes d’IA sont capables de traiter d’importants volumes de données issues de sources multiples, y compris des données non structurées, et d’identifier des schémas complexes ainsi que des signaux faibles — signes précurseurs d’éventuels changements, menaces ou opportunités émergents — difficilement détectables au moyen des méthodes classiques. Cela peut améliorer la précision et la rapidité des prédictions, et s’avère particulièrement utile pour les activités de prospective stratégique (Fitkov-Norris et Kocheva, 2025[73]). L’analyse prédictive et les prévisions fondées sur le recours à l’IA dans les administrations reposent sur l’utilisation d’algorithmes pour anticiper les tendances et risques à venir. Ces techniques peuvent être largement appliquées à différents domaines, comme la prévision de résultats macroéconomiques et budgétaires (par exemple, la « prévision immédiate » du PIB, abordée dans la section du Chapitre 5 consacrée à l’IA dans la gestion des finances publiques).
En fournissant des éclairages prospectifs précis et rapides, l’IA renforce les processus décisionnels, l’allocation des ressources et l’efficacité globale de l’action publique. Les applications pertinentes de l’IA dans ce domaine incluent notamment les points suivants :
Anticipation des besoins futurs en matière de services publics : le potentiel de l’IA en matière d’analyse prédictive et de prévisions est important, elle peut donc permettre aux services publics d’anticiper les besoins et d’adopter une posture proactive. En analysant les données historiques et les tendances, l’IA peut aider à anticiper les besoins futurs, optimiser l’allocation des ressources et améliorer la réactivité dans divers domaines de l’action publique.
Prévisions réglementaires : les autorités de régulation peuvent recourir à l’IA pour détecter les tendances et les mutations émergentes dans différents secteurs d’activité, afin de planifier en amont leurs réponses réglementaires. En surveillant et en analysant constamment les données issues de multiples sources, telles que les rapports de marché, les réseaux sociaux et les articles de presse, l’IA peut identifier les dernières évolutions et les avancées technologiques susceptibles d’avoir un impact sur les cadres réglementaires.
Gestion des risques de catastrophe : l’IA peut également contribuer à la prévision des catastrophes naturelles en analysant les données historiques et les tendances actuelles. Par exemple, les systèmes d’IA peuvent analyser les images satellites ainsi que d’autres données pour estimer la probabilité de catastrophes naturelles telles que les incendies de forêt et les tremblements de terre, ce qui permet de prendre des mesures préventives pour limiter les dommages et renforcer la sécurité publique (Sun, Bocchini et Davison, 2020[74] ; Gupta et Roy, 2024[75]). Ces systèmes peuvent fournir des alertes précoces et des informations précieuses pour aider les pouvoirs publics à réagir rapidement et à atténuer les effets de ces évènements.
Anticipation des risques de corruption et de fraude : les systèmes d’IA prédictive aident les acteurs de l’intégrité à hiérarchiser les cas à examiner en priorité. Bien que le transfert de ces approches de la recherche vers les administrations reste encore limité, il progresse de manière régulière. Les systèmes d’IA peuvent ainsi être utilisés pour hiérarchiser les cas à risque et rationaliser les processus d’audit. Ils peuvent aussi contribuer à orienter les politiques de lutte contre la corruption en fournissant des systèmes d’alerte précoce capables de prédire la corruption dans le secteur public à partir de données telles que les facteurs économiques et politiques. Les techniques prédictives jouent également un rôle central dans plusieurs activités de redevabilité et de contrôle des pouvoirs publics, telles que la détection de la fraude fondée sur l’analyse des risques, comme évoqué plus loin.
En matière de prévision des besoins futurs de services publics, le système PrevOcupAI mis en place au Portugal vise par exemple à prédire les maladies professionnelles et les facteurs de risques associés dans l’administration publique, afin de limiter les perturbations (voir la section du Chapitre 5 consacrée à l’IA dans la conception et la prestation de services publics).
Améliorer la gestion de l’information et son accessibilité
Des données robustes et de qualité constituent une condition préalable essentielle pour tirer parti des bénéfices de l’IA. L’IA peut contribuer à optimiser la qualité et l’utilité des données, ainsi que la capacité de l’homme et des machines à les traiter et à les analyser (Jarrahi et al., 2023[76]). Les systèmes d’IA permettent par exemple de nouvelles formes de collecte de données, en détectant et en identifiant automatiquement des éléments présents dans des images, des enregistrements audio ou des vidéos. Les capacités et la diffusion des dispositifs de détection fondés sur l’IA ont connu une progression rapide, rendant possible la transcription automatique de la parole, la détection de mouvements, la reconnaissance d’images en temps réel ainsi qu’une grande variété de tâches auparavant réalisées par des humains (Zhang, Wang et Lee, 2023[77] ; OCDE, 2023[31]). L’IA peut également améliorer les modalités de stockage, de diffusion et d’exploitation de l’information. Cette évolution est particulièrement visible avec l’intégration de l’IA dans les systèmes de gestion des connaissances (Sanzogni, Guzman et Busch, 2017[78]).
L’amélioration de la gestion interne de l’information au sein des administrations peut également les aider à fournir des informations et des données ouvertes au public. L'utilisation de l'IA peut contribuer à minimiser les erreurs dans la gestion des données, par exemple en réduisant les tâches manuelles, et, lorsqu'elle est associée à des technologies protectrices de la vie privée (PET, pour Privacy-Enhancing Technologies), peut renforcer la protection de la vie privée et des données à caractère personnel sensibles (OCDE, 2025[79]). Cela facilite en retour la publication plus large de données ouvertes et l’accès à ces données. Dans l’administration judiciaire par exemple, un moteur d’anonymisation reposant sur l’IA peut automatiquement identifier et protéger les données à caractère personnel contenues dans les décisions de justice (Encadré 5.64), en vue de la publication de ces décisions dans le cadre d’une initiative d’ouverture des données. L’OCDE (2023[80]) explore également l’usage des technologies protectrices de la vie privée, des solutions numériques permettant de collecter, traiter, analyser et partager des informations tout en protégeant la confidentialité des données et la vie privée9.
Les assistants virtuels internes à l’administration et destinés aux fonctionnaires en sont l’illustration : Albert en France et Caddy au Royaume-Uni mettent à disposition des fonctionnaires une mine d’informations historiques transversales à plusieurs administrations pour éclairer les processus décisionnels et faciliter les réponses aux demandes des administrés (Encadré 5.46).
Amélioration de la redevabilité et détection des anomalies
L'un des usages les plus anciens de l’IA dans les administrations publiques consiste à détecter les anomalies existantes, comme la fraude, ou à anticiper des risques d’atteinte à l’intégrité, afin de renforcer la responsabilité et la probité des programmes publics. Ce type d’utilisation requiert une vigilance particulière afin d’éviter des résultats potentiellement préjudiciables.
Détecter les transactions irrégulières et évaluer les risques liés à l’intégrité
Ces applications sont courantes dans de nombreuses fonctions publiques, notamment dans les domaines de la passation de marchés publics, de l’administration fiscale et de la gestion des finances publiques. La fraude et les paiements indus dans le cadre des programmes gouvernementaux peuvent représenter des pertes financières considérables. Par exemple, rien qu’aux États-Unis, le gouvernement fédéral perdrait chaque année entre 233 et 521 milliards USD à cause de la fraude (US GAO, 2024[81]).
Les algorithmes d’apprentissage automatique sont particulièrement efficaces pour la reconnaissance de modèles, car ils permettent d’analyser de grands ensembles de données et de détecter les valeurs aberrantes, les relations cachées (par exemple, des indices de collusion) ou d’autres anomalies qui justifient une enquête humaine approfondie. Sans la capacité d’analyse à grande échelle ou d’identification des modèles cachés qu’offre l’IA, ces irrégularités passeraient inaperçues. Cet usage de l’IA peut ainsi renforcer la capacité des organismes publics à préserver l’intégrité et la redevabilité. À titre d’exemple, l’administration fiscale française utilise l’IA pour analyser les photographies aériennes et repérer les biens immobiliers non déclarés (Encadré 5.1).
Les pouvoirs publics peuvent aussi recourir à l’IA pour mieux identifier, évaluer, anticiper et traiter les risques pesant sur l’intégrité, ce qui permet une meilleure gestion et atténuation de ces risques, ainsi que des interventions plus rapides. Dans le domaine de la conformité réglementaire par exemple, les inspecteurs recourent de plus en plus à l’IA pour évaluer le risque que représentent certains opérateurs privés. Cela permet de mieux cibler les inspections, de mieux protéger l’intérêt général et d’optimiser l’allocation des ressources (OCDE, 2019[82] ; OCDE, 2021[83]). L’IA aide les inspecteurs en détectant des modèles susceptibles d’indiquer une non-conformité potentielle, ce qui permet une évaluation des risques plus précise. Cette application de l’IA permet non seulement de rationaliser les inspections, mais aussi d’améliorer l’efficacité globale des cadres réglementaires, en veillant à ce que les ressources soient affectées là où elles sont le plus nécessaires.
Permettre aux acteurs non gouvernementaux de comprendre l’administration et d’interagir avec celle-ci, ce qui favorise la redevabilité
Les pouvoirs publics peuvent profiter de l’IA pour accroître leur transparence et développer de nouvelles formes ainsi que de nouveaux canaux d’interaction entre les citoyens, les organisations de la société civile (OSC) et les institutions publiques. D’ailleurs, les spécialistes de l’IA considèrent que la capacité d’influence accrue des citoyens, des OSC et des partenaires sociaux (les syndicats, par exemple) figure parmi les dix bénéfices les plus importants de l’IA. Or ce bénéfice repose sur la transparence de l’administration et l’utilisation de l’IA (OCDE, 2024[14]). Voici des cas d’utilisation appropriée à cet égard :
proposer aux citoyens des outils fondés sur l’IA et exploitant les données publiques ouvertes, afin de les aider à comprendre les démarches ainsi que les actions de l’État et leur permettre de mieux s’orienter ;
permettre aux OSC et à d’autres acteurs non gouvernementaux de contrôler et de superviser les activités de l’administration ;
offrir des espaces et des canaux d’expression permettant aux citoyens de faire part de leurs retours et de signaler d’éventuels dysfonctionnements liés aux performances ou aux décisions des pouvoirs publics.
Lorsqu’elle est correctement mise en œuvre, cette utilisation de l’IA peut favoriser la redevabilité et l’intégrité publique, améliorer l’élaboration des politiques et renforer la confiance des citoyens envers les institutions. Ce bénéfice — accompagné d’exemples concrets et d'une analyse des conditions nécessaires à sa réalisation — fait l’objet d’un examen approfondi dans la section du Chapitre 5 consacrée à la participation civique et au gouvernement ouvert.
Créer des opportunités pour les parties prenantes externes, en faisant de l’IA un bien commun
Un dernier bénéfice de l’utilisation de l’IA par les pouvoirs publics réside dans la création de nouvelles opportunités pour les parties prenantes externes, telles que les entreprises et les administrés, en leur donnant accès aux systèmes d'IA développés par l’administration. Ce bénéfice peut sembler moins évident que d’autres, qui sont plus directement liés aux activités de l’administration . Il peut néanmoins contribuer à améliorer la gouvernance publique en renforçant la confiance envers les institutions, en permettant à la population d’être mieux informée et plus compétente, ou encore en stimulant la croissance économique. Certains pays ont mis en place des programmes d’ouverture des données publiques non seulement dans un objectif de transparence et de redevabilité, mais aussi pour encourager l’esprit d’entreprise, la croissance économique et la création de valeur, une dimension parfois insoupçonnée au moment de lancer ces initiatives (OCDE, 2019[84]). À titre d’exemple, les données d’images satellite Landsat, qui sont mises à disposition gratuitement par l’US Geological Service (service géologique des États-Unis) depuis 2008, génèrent aujourd’huiplus de 25 milliards USD de valeur économique par an (USGS, 2024[85]). Lorsque le mouvement d’ouverture des données publiques est apparu à la fin des années 2000 et au début des années 2010 (Chignard, 2013[86]), on ne mesurait pas encore pleinement que ces données serviraient, une décennie plus tard, à entraîner des systèmes d’IA.
L’IA, par nature, se distingue fondamentalement des données en ce sens qu’elle n’est pas un sous-produit naturel d’un ensemble de fonctions ou d’activités existantes, et qu’elle ne peut pas servir de matière première pour d’autres processus (les données ont par exemple été comparées à du carburant, à de l’électricité ou à de l’eau potable pour l’IA). Pourtant, l’utilisation de l’IA par les pouvoirs publics peut générer un bien public en donnant aux parties prenantes les moyens d’améliorer leurs capacités et leur accès à l’information afin de créer de nouvelles formes de valeur.
Contrairement à d’autres usages, dans lesquels l’IA facilite les interactions entre administrations et administrés ou améliore les informations fournies ainsi que leur accessibilité, certains usages spécifiques de l’IA dans la gouvernance publique peuvent accroître les capacités des acteurs externes et leur permettre d’accomplir leurs missions et d’atteindre leurs objectifs de manière plus efficace. À titre d’exemple, le gouvernement de l’Inde met à disposition des agriculteurs des systèmes d’IA pour les aider à surveiller l’état de santé de leurs cultures et à prévenir les problèmes liés aux parasites (Jeevanandam, 2024[87]). De même, l'initiative allemande FAIR Forward – Artificial Intelligence for All promeut la création ouverte et l’utilisation responsable de systèmes d’IA dans des domaines tels que l’agriculture, la protection du climat et la participation citoyenne (OCDE, 2023[88]). De telles approches peuvent se révéler particulièrement pertinentes sur des marchés peu ou pas desservis par des solutions du secteur privé. Les pouvoirs publics disposent souvent des ressources nécessaires pour investir dans des domaines peu explorés et peuvent initier la structuration de nouveaux marchés, en prenant des risques que d’autres ne sont pas encore prêts à assumer.
Le potentiel de retombées positives pour les parties externes pourrait être encore amplifié si les pouvoirs publics facilitaient l’accès à des facteurs propices à l’utilisation de l’IA, comme l’infrastructure numérique, notamment en matière de puissance de calcul (Ho, 2023[89]) (voir la section du Chapitre 4 consacrée à la mise en place de l’infrastructure numérique). Dans certains cas, ces outils existent déjà pour un usage interne à l’administration et il suffirait de les adapter et de les étendre pour les mettre à la disposition d’un public plus large. Dans d’autres cas, des dispositifs spécifiquement destinés à des acteurs externes pourraient être créés. De telles mesures permettraient de démocratiser les bénéfices potentiels de l’IA (OCDE, 2024[14]).
Les entités non gouvernementales peuvent également participer à la création et à la mise en œuvre d’outils d’IA, en jouant un rôle moteur dans l’émergence d’une participation citoyenne soutenue par la technologie (OCDE, 2025[90]).
Pour tirer parti des bénéfices de l’IA, ses risques doivent être maîtrisés
Copier le lien de Pour tirer parti des bénéfices de l’IA, ses risques doivent être maîtrisésL’adoption généralisée de l’IA dans tous les secteurs soulève des interrogations majeures en matière de confiance, d’équité, de protection de la vie privée, de sécurité et de redevabilité, entre autres. La prise en compte de ces enjeux et la gestion des risques associés à l’IA peuvent avoir un impact sur son acceptation et la concrétisation de ses bénéfices potentiels (Tse et Karimov, 2022[91]). L’IA présente des centaines de risques10, dont certains que les experts identifient comme déterminants pour la société (OCDE, 2024[15] ; [14] ; [92] ; 2022[93]) :
Elle est susceptible de produire des résultats potentiellement préjudiciables pour certains groupes ou certaines personnes si les systèmes d’IA sont fondés sur des données inappropriées ou biaisées.
Le manque de transparence et d’explicabilité des systèmes d’IA nuit à la redevabilité.
Certains usages de l’IA soulèvent des préoccupations importantes en matière de protection des données, de respect de la vie privée et de surveillance.
L’IA peut faciliter l’apparition de cybermenaces de plus en plus sophistiquées.
Des incidents voire des catastrophes liés à l’IA pourraient survenir dans des systèmes critiques, avec différents niveaux de gravité.
L’IA pourrait provoquer des bouleversements du marché du travail.
La puissance de calcul nécessaire à l’IA implique une consommation d’énergie très élevée.
Ces enjeux complexes suscitent l’attention des pouvoirs publics, des entreprises, des OSC et des autres parties prenantes. Des initiatives telles que l’adoption du règlement de l’Union européenne (UE) sur l’IA (2024[94]) ou diverses mesures de gouvernance à l’échelle nationale illustrent le rôle actif des pouvoirs publics pour encadrer l’utilisation de l’IA au service de la société11.
Risques spécifiques à l'utilisation de l'IA dans l’administration
Tous les risques inhérents à l’IA peuvent concerner les pouvoirs publics d'une manière ou d’une autre, par exemple parce qu’ils exigent la mise en place de mécanismes de gouvernance ou de mesures d’atténuation. Toutefois, un sous-ensemble plus restreint de risques est particulièrement pertinent pour les décideurs du secteur public et les fonctionnaires dans leur quête d’une utilisation stratégique et responsable de l’IA au sein des administrations. Comme évoqué plus haut, les pouvoirs publics exercent une influence considérable sur la vie des gens, par conséquent le recours à l’IA peut avoir un impact — positif ou négatif — plus important sur la population. Les attentes en matière de redevabilité sont donc plus élevées dans le cadre de l’utilisation de l’IA par les pouvoirs publics. Cette exigence est illustrée de manière explicite par le règlement de l’UE sur l’IA, qui classe de nombreuses applications de l’IA dans le secteur public comme étant à « haut risque », tandis que d’autres présentent un « risque inacceptable » qui entraîne leur interdiction dans l’UE (Encadré 1.2). Les États-Unis adoptent une approche différente et considèrent que certaines applications sont à « fort impact », ce qui exige la mise en œuvre de pratiques spécifiques de gestion des risques (Encadré 1.3). De son côté, la Corée a promulgué une loi sur le développement de l’IA et la création d’un socle de confiance (la « loi fondamentale sur l’IA ») (2024[95]), qui entrera en vigueur en janvier 2026. Cette législation, qui s’applique aux organisations développant ou utilisant l’IA sur le marché coréen, considère de la même manière que certains usages sont « à fort impact », exigeant ainsi des mesures renforcées pour garantir la sûreté et la fiabilité de l’IA. Cette loi fondamentale sur l’IA prévoit une catégorie distincte pour l’IA générative, avec des exigences spécifiques en matière de transparence et de divulgation.
Encadré 1.2. Les niveaux de risque définis par le règlement de l’UE sur l’IA appliqués à l’usage de l’IA par les pouvoirs publics
Copier le lien de Encadré 1.2. Les niveaux de risque définis par le règlement de l’UE sur l’IA appliqués à l’usage de l’IA par les pouvoirs publicsLe règlement de l’UE sur l’IA est entré en vigueur en août 2024. Il prévoit des obligations spécifiques en fonction des risques que présente l’IA et de son impact potentiel. Ce cadre identifie quatre niveaux de risque particulièrement pertinents pour l’utilisation de l’IA par les pouvoirs publics.
Risque inacceptable. Les utilisations de l’IA qui relèvent de cette catégorie sont interdites. Sont notamment concernés : la police prédictive, l’identification biométrique à distance en temps réel dans les espaces publics (y compris la reconnaissance faciale) lorsqu’elle est utilisée à des fins de maintien de l’ordre, la notation sociale ou encore l’évaluation du risque qu’une personne commette des infractions pénales. Ces restrictions touchent tout particulièrement certaines fonctions publiques comme les services répressifs et l’administration judiciaire. Des exceptions ont néanmoins été prévues, notamment pour les usages liés à la sécurité nationale, à condition qu’ils soient encadrés par un contrôle judiciaire.
Risque élevé ou « haut risque ». Les utilisations de l’IA relevant de cette catégorie sont autorisées mais réglementées, en raison des risques importants qu’elles peuvent faire peser sur la santé, la sécurité, les droits fondamentaux, l’environnement, la démocratie ou l’État de droit. Compte tenu de leur impact potentiel, de nombreuses utilisations de l’IA par les pouvoirs publics peuvent relever de cette catégorie. C’est notamment le cas des systèmes utilisés pour influencer le résultat des élections ou le comportement des électeurs, du traitement automatisé de données à caractère personnel à des fins d’évaluation de différents aspects de la vie d’une personne, de l’évaluation de l'éligibilité à des prestations ou des services publics, et des composants de sécurité intégrés à la gestion et l’exploitation d’infrastructures essentielles. Les obligations comprennent l'adoption d’un système de gestion des risques, une gouvernance rigoureuse des données, la mise en place d’une documentation technique attestant de la conformité, ainsi qu’une évaluation obligatoire de l’impact sur les droits fondamentaux.
Risque limité. Cette catégorie peut inclure les systèmes destinés à communiquer avec des personnes, tels que les agents conversationnels, ainsi que des systèmes qui génèrent du contenu, notamment sous forme de texte ou d’images. Les obligations de transparence imposent aux développeurs de ces systèmes et aux organismes qui les déploient de veiller à ce que les utilisateurs finaux sachent qu’ils interagissent avec une intelligence artificielle.
Risque minime. Ces systèmes ne sont pas réglementés mais un code de conduite est recommandé. Cette catégorie concerne par exemple les jeux vidéo et les filtres anti-spam.
Source : (Union européenne, 2024[94]).
Encadré 1.3. Le concept « à fort impact » dans la directive américaine relative à l’IA
Copier le lien de Encadré 1.3. Le concept « à fort impact » dans la directive américaine relative à l’IAAux États-Unis, la directive M-25-21 Accelerating Federal Use of AI through Innovation, Governance and Public Trust (accélérer l'utlisation de l’IA au niveau fédéral par l’innovation, la gouvernance et la confiance publique) adopte une approche duale pour les cas d’utilisation de l’IA par les pouvoirs publics : soit l’utilisation est considérée comme « à fort impact », soit elle ne l’est pas.
Une IA est considérée « à fort impact » lorsque ses résultats servent de base principale à des décisions ou actions ayant un effet juridique, matériel, contraignant ou significatif sur :
les droits civiques, les libertés fondamentales ou la vie privée d’une personne ou d’une entité ; l’accès à l’éducation, au logement, à l’assurance, au crédit, à l’emploi, aux ressources ou services publics essentiels ou à d’autres programmes ;
la santé et la sécurité des personnes ;
les infrastructures essentielles ou la sécurité publique ;
des actifs ou des ressources stratégiques, y compris des biens de grande valeur et des informations désignées comme sensibles ou classifiées par le gouvernement fédéral.
Les agences fédérales sont chargées d’examiner les cas dans lesquels elles utilisent l’IA pour vérifier si ceux-ci relèvent de la définition d’utilisation « à fort impact » . La directive donne des exemples avec 15 catégories de cas d’utilisation de l’IA présumés « à fort impact ».
Pour les cas d’utilisation de l’IA à fort impact, les agences doivent mettre en œuvre des pratiques minimales de gestion des risques. Ces pratiques incluent notamment : la réalisation de tests préalables au déploiement ainsi qu’une évaluation de l’impact de l’IA ; la surveillance continue des performances et des effets indésirables potentiels ; la garantie d’un entraînement, d’une évaluation et d’une supervision adéquats par des humains, ainsi que l’assurance d’une intervention et d’une responsabilité humaines ; la mise en place de recours et de procédures d'appel cohérents ; et la consultation des utilisateurs finaux et du public, ainsi que la prise en compte de leurs retours. Les agences doivent disposer d’un plan de retrait pour tout système d’IA à fort impact qui ne répondrait pas aux exigences de performance définies dans la politique, et ce jusqu’à ce que des mesures soient prises pour permettre un retour à la conformité.
Les programmes pilotes à portée limitée doivent, dans la mesure du possible, respecter ces politiques minimales de gestion des risques. Toutefois, si le directeur de l’IA en atteste et si d’autres conditions définies dans le texte de référence sont remplies, ces programmes pilotes peuvent en être exemptés. Les directeurs de l’IA des agences peuvent également accorder une dérogation à une ou plusieurs de ces pratiques pour un cas d’utilisation spécifique, sous certaines conditions. Dans ce cas, ils doivent certifier chaque année la validité des décisions et dérogations, les suivre de manière centralisée et publier un résumé public pour chacune d’entre elles.
Au fur et à mesure qu'ils cherchent à développer et à utiliser l’IA, les pouvoirs publics sont confrontés à des risques, autrement dit à des dangers et des menaces pouvant entraîner de graves problèmes pour les personnes et la société dans son ensemble (Valle-Cruz, Garcia-Contreras et Gil-Garcia, 2023[96]), ce qui pourrait compromettre la confiance envers les institutions, la légitimité de l’usage de l’IA par les pouvoirs publics, voire les valeurs démocratiques. Pour répondre à ces préoccupations, il est essentiel d’identifier et de gérer ces risques, d’examiner comment les systèmes d’IA peuvent affecter différemment certains citoyens ou certaines populations marginalisées, de veiller à une répartition équitable des bénéfices de l’IA et d’atténuer les préjudices potentiels. Il est important d’évaluer ces risques de manière continue, car des risques connus peuvent évoluer et de nouveaux risques peuvent apparaître, y compris certains qui paraissaient auparavant improbables.
Ce rapport identifie ci-dessous cinq grandes catégories de risques liés à l’usage de l’IA dans les administrations. En plus de ces risques, les pouvoirs publics sont également confrontés à un certain nombre de défis liés à la mise en œuvre de l’IA. Ces défis sont abordés au Chapitre 3.
Risques éthiques : ils concernent les usages de l’IA qui portent atteinte au libre exercice des droits humains et aux libertés, notamment au respect de la vie privée, et peuvent aller à l’encontre des valeurs humaines, de manière intentionnelle ou non. Les algorithmes peuvent faire passer des risques éthiques du monde numérique dans le monde réel, au travers de biais algorithmiques ou de comportements contraires à l’éthique, comme la surveillance intrusive. Les principales préoccupations portent sur la confiance, l’équité, la liberté, la dignité, l’autonomie individuelle et les droits des travailleurs.
Risques opérationnels : ils englobent les défaillances techniques ou fonctionnelles susceptibles de compromettre la confidentialité des données, la qualité des résultats produits par l’IA ou encore les opérations internes des pouvoirs publics. Ces risques incluent les cybermenaces, les conséquences non anticipées, les hallucinations de l’IA, les erreurs systématiques ou une dépendance excessive à l’égard des systèmes d’IA.
Risques d’exclusion : ces risques renvoient aux inégalités qui apparaissent lorsque des citoyens qui n’ont pas accès aux technologies ou qui manquent de compétences numériques risquent d’être laissés pour compte et de ne pas pouvoir bénéficier des progrès de l’IA dans les services publics.
Risques de résistance de la population : ces risques sont liés à la résistance de la population à l’utilisation de l’IA par les pouvoirs publics. Cette résistance peut être motivée par un manque de confiance à l’égard des systèmes ou des processus d’IA des pouvoirs publics, ou encore par la diffusion d’informations fausses ou trompeuses sur la manière dont l’IA est utilisée dans les administrations publiques et ses effets potentiels.
Risques d'inaction : souvent négligé, ce risque inclut les retards pris par les pouvoirs publics dans l’adoption de l’IA, alors qu’elle pourrait générer des bénéfices significatifs. Cette inaction peut entraîner des coûts financiers et non financiers importants qui auraient pu être évités grâce à une adoption réussie de l’IA, ainsi qu’un creusement de l’écart entre les capacités du secteur public et celles du secteur privé.
Risques éthiques
Données inappropriées ou biaisées dans les systèmes d’IA
Les systèmes d’IA peuvent perpétuer ou générer des résultats négatifs ou préjudiciables, dus à des données incomplètes ou inappropriées ou aux interactions entre l’utilisation de l’IA et les pratiques institutionnelles et sociales, que celles-ci relèvent de dynamiques humaines ou systémiques.
Il est essentiel de rappeler que les algorithmes ne fonctionnent pas de manière autonome : ils sont façonnés par des choix humains à chaque étape, depuis la sélection du modèle et des données d’entraînement jusqu’aux réglages et à l’ajustement des paramètres. Les systèmes d’IA apprennent généralement à partir de données produites par l’homme et reflètent donc inévitablement les perceptions sociales et les comportements existants. Par ailleurs, dans les administrations, les algorithmes prennent rarement des décisions de manière autonome et ils servent généralement d’outils pour éclairer et orienter les décisions humaines, plutôt que pour les remplacer. Même lorsque les politiques visent à la standardisation, leur mise en œuvre reste fortement tributaire du contexte local et de « l’interaction désordonnée entre de multiples acteurs aux connaissances diverses » (Davies, Nutley et Walter, 2008[97]). Cette dynamique entre IA et jugement humain implique que des erreurs peuvent persister non seulement dans les résultats produits par les algorithmes, mais également dans la manière dont ces recommandations sont interprétées et appliquées. Il est donc essentiel de comprendre comment les décideurs traitent et intègrent les informations générées par l’IA, et de veiller à ce qu’ils disposent des compétences nécessaires pour utiliser ces outils en toute confiance. D’une part, la subjectivité cognitive continue d’influencer les interactions entre humains et IA, malgré la perception de neutralité apparente de cette dernière, et d’autre part, les machines sont dépourvues d’empathie. Il est donc fondamental que les fonctionnaires puissent faire preuve de discernement professionnel et de sagesse pratique afin de garantir l’équité en exerçant un jugement éclairé.
Les systèmes d’IA sont également très sensibles à la qualité des données utilisées pour leur entraînement, ce qui les rend vulnérables au surapprentissage des modèles12, à l’apprentissage de corrélations fallacieuses et à l’amplification des erreurs ou des distorsions présentes dans les ensembles de données générés par l’homme. Bien que l’IA permette d’éliminer le bruit, comme indiqué plus haut dans la partie consacrée aux bénéfices de cette technologie, elle cherche par nature à détecter des modèles, ce qui peut au contraire contribuer à exacerber le bruit, en particulier lorsque les données d’entraînement présentent des incohérences systémiques. Sans une supervision rigoureuse et des mesures d’atténuation, l’IA risque de renforcer ces distorsions plutôt que de produire des décisions objectives et fiables. Cela souligne la nécessité cruciale d’une sélection et d’une validation rigoureuse des données, de tests systèmes, d’un suivi anticipatif et rétrospectif des impacts, ainsi que d’une transparence algorithmique dans les processus décisionnels reposant sur l’IA (Shane, 2019[98]).
En raison de sa capacité à produire des effets systémiques, l’IA peut également amplifier d’autres formes de risques lorsque les données sont insuffisantes ou biaisées et les algorithmes utilisés sont inadéquats, comme le montrent les exemples ci-dessous.
Mauvais usage ou usage discutable de l’IA : préoccupations liées à la surveillance et à la protection de la vie privée
Le mauvais usage ou l’usage discutable de l’IA dans l’administration peut porter atteinte au libre exercice des libertés et des droits fondamentaux des personnes. Une préoccupation majeure concerne l’utilisation de l’IA dans la prestation des services de sécurité publique, dans la mesure où ces technologies permettent de procéder efficacement à l’identification et au suivi des personnes, grâce aux données biométriques et à la surveillance en temps réel. Si ces outils peuvent s’avérer utiles pour le maintien de l’ordre et la prévention de la criminalité, ils suscitent également des inquiétudes en matière de protection des données, de surveillance par l’État et de contrôle social. Ainsi, pendant la pandémie de COVID-19, l’IA a été mobilisée pour suivre les mouvements des personnes afin de faire respecter les mesures d’isolement (Saheb, 2022[99]). Bien que cette mesure visait à maîtriser la propagation du virus, elle a suscité au sein de la population des inquiétudes liées au respect de la vie privée (OCDE, 2020[100]). La surveillance pilotée par l’IA est en effet de plus en plus répandue, comme l’a révélé Carnegie Endowment for International Peace (2022[101]), qui a identifié l’utilisation de technologies d’IA à des fins de surveillance publique dans 97 des 179 pays analysés (soit 54 %)13. L’indice met en lumière le rôle central des régimes non démocratiques dans la prolifération de la surveillance par l’IA, notamment via la vente de technologies à d’autres pays. Toutefois, les démocraties libérales comptent également parmi les grands utilisateurs de ces systèmes (Saheb, 2022[99]). Comme le montre l’Encadré 1.2, le règlement de l’UE sur l’IA encadre l’utilisation de l’IA à des fins de surveillance et identifie les cas qui présentent un « risque inacceptable » en les interdisant dans toute l’Union européenne.
De manière analogue, la prestation de services personnalisés s’appuie souvent sur le traitement algorithmique de données issues de multiples sources publiques, voire privées (Nikiforova et al., 2023[102]). Cette approche soulève certains enjeux en matière de respect de la vie privée et souligne la nécessité, pour les pouvoirs publics, de concilier efficacité du service et protection rigoureuses des droits à la vie privée des personnes. Par exemple, pour offrir des services sociaux personnalisés, les administrations peuvent être amenées à agréger des données issues des dossiers médicaux, des résultats scolaires, des antécédents professionnels ou encore de l’activité sur les réseaux sociaux. Si l’objectif est de proposer un accompagnement sur mesure et des interventions opportunes, le traitement d’un volume considérable d’informations à caractère personnel requiert de la prudence, le consentement des intéressés, ainsi que des contrôles pour atténuer les inquiétudes liées à la surveillance. Les orientations pertinentes peuvent être consultées dans (OCDE, 2017[103]) et (OCDE, 1980[104]). Des politiques et des infrastructures solides sont essentielles pour arbitrer entre réactivité, transparence et protection des données sensibles (OCDE, 2024[105] ; [59]).
Un autre exemple de mauvais usage est la notation sociale appliquée à la prestation de services ou l’élaboration de politiques. Cette pratique consiste à classer les personnes en fonction de leur comportement ou de leurs caractéristiques personnelles. Des algorithmes analysent alors des données issues de sources telles que les réseaux sociaux, les transactions financières et les archives publiques en vue d’attribuer des notes. Ces notes peuvent avoir des conséquences sur l’accès à des services, à des prêts ou à des opportunités professionnelles, avec le risque d’entraîner des traitements injustes. L’utilisation de tels systèmes par les pouvoirs publics est interdite dans l’UE, où elle est considérée comme inacceptable (Union européenne, 2024[94]).
Dans une enquête récente menée auprès de centaines d’experts issus de différents domaines, 79 % des répondants ont déclaré que l’IA aura un impact négatif sur la vie privée des personnes d’ici à 2040, une crainte partagée par une grande partie de la population (Rainie et Anderson, 2024[106] ; Fazlioglu, 2024[107]). Les pouvoirs publics devront s’assurer qu'ils utilisent l’IA dans un cadre digne de confiance afin de dissiper ces inquiétudes.
L’utilisation potentiellement abusive des outils d’IA pour permettre la surveillance des citoyens par les autorités peut déboucher sur des dérives autoritaires et des abus de pouvoir. La collecte et le suivi constant des données peuvent générer un climat de peur et de méfiance, en particulier au sein des communautés qui se sentent déjà ciblées de manière disproportionnée par les forces de l’ordre (Nations Unies, 2024[108]). Certains gouvernements peuvent également s’appuyer sur l’IA pour consolider leur pouvoir politique, facilitant ainsi des formes de soumission de masse et d’autoritarisme (OCDE, 2024[14]), en particulier de la part de gouvernements non démocratiques ou peu soucieux de la protection des droits humains. Certains experts soutiennent que l’IA pourrait être utilisée — et l’est déjà dans certains cas — pour surveiller et contrôler à grande échelle les citoyens et les habitants à travers des algorithmes et des analyses comportementales, identifier et réprimer l’opposition, et maintenir des régimes totalitaires (OCDE, 2022[109] ; Tegmark, 2017[110] ; Clarke et Whittlestone, 2022[111] ; Byler, 2021[112]).
Enfin, la manipulation algorithmique, qui consiste à altérer les résultats produits par des systèmes d’IA pour obtenir des effets spécifiques, constitue une autre forme d’abus contraire à l’éthique dans le cadre des administrations publiques (Valle-Cruz, Garcia-Contreras et Gil-Garcia, 2023[96]). Cette manipulation peut être le fait de fonctionnaires, de décideurs ou de développeurs de systèmes d’IA qui modifient délibérément les résultats du système pour favoriser ou désavantager certains groupes ou individus, ou pour servir une orientation politique particulière. De plus, la complexité intrinsèque des technologies d’IA peut rendre difficile le repérage et la compréhension des mécanismes internes des algorithmes.
Manque de transparence et d’explicabilité
Les systèmes basés sur l’apprentissage profond sont qualifiés de « boîtes noires », car il est difficile de comprendre la façon dont ils produisent un résultat donné. Ces résultats sont indirectement générés par l’entraînement à l’apprentissage profond, au cours duquel les ingénieurs modifient continuellement les paramètres jusqu’à ce que le modèle atteigne un score élevé selon les objectifs fixés (Clarke et Whittlestone, 2022[111]). Même les scientifiques qui travaillent sur des modèles avancés d’apprentissage profond ne comprennent pas les mécanismes internes de leurs systèmes et il leur est difficile de retracer les résultats obtenus ou de tester la fiabilité des systèmes à l’aide de méthodes classiques (OCDE, 2022[109]).
Cette opacité complique la détection et la réduction des résultats préjudiciables, tout en soulevant le problème de la responsabilité en cas de problème. À mesure que les systèmes d’IA s’intègrent dans les fonctions administratives, les systèmes de « boîte noire » peuvent rendre difficile l’explication aux citoyens du raisonnement sous-tendant les décisions assistées par l’IA. Ce phénomène peut également aggraver d’autres risques inhérents à l’IA. Par exemple, il peut être plus complexe d’identifier les biais algorithmiques et leurs causes profondes dans des systèmes opaques. Les fonctionnaires pourraient également développer une confiance excessive dans des systèmes d’IA en apparence performants mais comportant des défauts invisibles (contribuant ainsi au biais d’automatisation, analysé ci-dessous) (OCDE, 2024[14] ; Russell, 2019[113]). Cette situation peut nuire à la redevabilité des pouvoirs publics et priver les citoyens de leur capacité à prendre des décisions éclairées, voire les soumettre à des décisions opaques et erronées générées par l’IA (Lima et al., 2022[114]).
Risques opérationnels
« Biais d’automatisation » et dépendance excessive à l’IA
De nombreuses personnes considèrent les systèmes d’IA et leurs décisions comme neutres et impartiaux, ce qui conduit les utilisateurs à accepter leurs résultats sans les remettre en question. Les études portant sur les processus décisionnels assistés par l’IA montrent une tendance à accorder une confiance excessive aux recommandations produites par les algorithmes, souvent perçues comme plus fiables que le jugement humain, même lorsque les systèmes présentent des limites (Alon-Barkat et Busuioc, 2024[72]). Ce « biais d’automatisation » (la propension à faire confiance aux résultats d’une IA parce qu’ils semblent rationnels et neutres) peut entraîner l’application de décisions fondées sur l’IA à un nombre croissant de défis sociétaux (Horowitz, 2023[115] ; Alon-Barkat et Busuioc, 2022[116]), parfois pour éviter d’aborder de manière directe les approches humaines à ces problèmes. Certains experts estiment que cette habitude engendre une « foi aveugle » dans la technologie, un phénomène préoccupant qui peut renforcer les problèmes systémiques existants à l’encontre de certains groupes ou de certaines personnes et contribuer à une forme de négligence face à la souffrance humaine ainsi qu’à l’érosion de l’empathie (Goldman, 2023[117] ; Olson, 2023[118]).
Dans l’administration, ce que l’on appelle le « biais d’automatisation » survient lorsque des organismes publics ou des fonctionnaires s’en remettent excessivement aux systèmes d’IA pour prendre des décisions ou accomplir des tâches. Par exemple, si les professionnels de santé s’appuient de manière excessive sur les suggestions automatisées de l’IA sans les vérifier, ils risquent de passer à côté d’informations cruciales ou de poser des diagnostics erronés. Cette dépendance peut conduire les utilisateurs à ne pas détecter les erreurs, à accepter des résultats incorrects de l’IA et à réduire leur propre vigilance ainsi que leur capacité de jugement (Passi et Vorvoreanu, 2022[119] ; Klingbeil, Grützner et Schrec, 2024[120]). L’IA pourrait ainsi être adoptée de manière systématique sans évaluation complète de sa précision ni de ses conséquences potentielles, ce qui entraînerait une dépendance à l’égard des systèmes d’IA et la propagation d’erreurs en cascade à l’échelle de tout un système (Valle-Cruz, Garcia-Contreras et Gil-Garcia, 2023[96]).
Les hallucinations surviennent lorsque les systèmes d’IA inventent des faits de façon crédible, souvent quand une bonne réponse n’est pas trouvée dans les données d’entraînement, et elles contribuent à ces problèmes. Elles peuvent s’avérer préjudiciables dans le cadre des processus décisionnels de l’administration, en induisant des choix ou des actions erronés (OCDE, 2024[15] ; Beltran, Ruiz Mondragon et Han, 2024[121]). Par exemple, un système d’IA conçu pour répondre aux questions des usagers pourrait fournir des renseignements inexacts sur les services publics ou énumérer des services qui n’existent pas. Si ces effets indésirables et ces erreurs ne sont pas correctement maîtrisés, ils peuvent se propager rapidement et affecter de larges pans de la population ou des décisions cruciales internes au gouvernement.
Les systèmes d’IA peuvent aussi être sujets à de simples erreurs et à des dysfonctionnements entraînant des écarts systématiques ou un manque de précision dans les résultats produits par les algorithmes. S’ils ne sont pas rigoureusement conçus ou s'ils ne sont pas techniquement fiables, ils risquent d’affaiblir la confiance de la population, y compris des fonctionnaires. Les citoyens peuvent éprouver des frustrations répétées dues à des erreurs de traitement de leurs demandes ou des retards dans la prestation des services. Par exemple, les systèmes automatisés en charge du traitement des formulaires, des services d’accueil et de renseignements ou des demandes de paiement doivent fonctionner avec une grande précision ; dans le cas contraire, les dysfonctionnements ou les erreurs techniques peuvent donner une impression d’incompétence et de manque de fiabilité des services publics. Les problèmes techniques ou les erreurs rencontrés dans les échanges avec les agents conversationnels, tels que des réponses incorrectes, l’incapacité à comprendre les requêtes ou des pannes peuvent également miner la confiance, en donnant l'impression que les systèmes d’IA ne sont pas fiables.
L’aversion au risque joue également un rôle dans le « biais d’automatisation ». Les fonctionnaires peuvent hésiter à assumer personnellement des décisions, de peur d’en porter la responsabilité par la suite. C’est le cas, par exemple, lorsqu’un humain prend une décision contraire à la recommandation d’un système d’IA et que cette décision se révèle erronée. Dans ce cas, sa responsabilité peut sembler doublement engagée. Comme le montre l’Encadré 5.43, certains systèmes d’IA mis en place par les pouvoirs publics exigent même que les fonctionnaires justifient leurs choix lorsqu’ils s’écartent des recommandations du système, ce qui alourdit leur charge de travail et renforce les incitations à suivre les recommandations de l’IA.
Les recherches mettent également en évidence le concept d’adhésion sélective, selon lequel les décideurs sont plus enclins à suivre les recommandations des algorithmes lorsqu’elles concordent avec leurs croyances préexistantes ou avec des stéréotypes sociaux (Alon-Barkat et Busuioc, 2022[116]). Cela peut entraîner des distorsions dans les décisions publiques, les fonctionnaires se servant inconsciemment des résultat fournis par l’IA pour conforter des biais déjà présents au lieu de les interroger de manière critique.
Certains travaux laissent penser qu’une dépendance excessive à l’IA pourrait contribuer à un déclin des capacités cognitives humaines, en réduisant la capacité de recherche, la créativité et l’autonomie intellectuelle, à mesure que les personnes s’habituent à des solutions générées par l’IA. Des études indiquent que le recours fréquent à des systèmes d’aide à la décision fondés sur l’IA peut conduire à un délestage cognitif, les personnes s’impliquant moins dans la réflexion critique et la résolution indépendante des problèmes (Gerlich, 2025[122]). Par ailleurs, les processus décisionnels fondés sur l’IA risquent d’encourager l’uniformisation des comportements, les résultats de l’IA reflétant souvent une diversité limitée de points de vue. Ce rétrécissement des perspectives pourrait freiner la pensée adaptative et réduire la capacité des sociétés et des pouvoirs publics à faire face à l’incertitude et aux risques (Meng, 2024[123]). Bien qu’une dépendance excessive à l’IA puisse présenter des risques, les outils fondés sur d’IA peuvent aussi aider les opérateurs humains à interpréter et à remettre en question les décisions complexes issues de l’IA elle-même, ce qui aurait pour effet d’éviter cette dépendance excessive (OCDE, 2024[15]).
Diminution de la qualité des emplois pour les fonctionnaires
Si l’IA peut améliorer la qualité du travail et le bien-être des fonctionnaires, comme évoqué précédemment, certains usages peuvent produire l’effet inverse. Le recours aux outils de gestion algorithmique est en forte progression, avec un taux d’adoption de 90 % dans les entreprises américaines et de 79 % chez leurs homologues de l’UE (Milanez, Lemmens et Ruggiu, 2025[124]). Bien qu’il n’existe pas d’étude spécifique sur le secteur public, des préoccupations concrètes ont émergé quant aux effets négatifs déjà observés sur la qualité de l’emploi : intensification du travail, stress accru, sentiment de réduction de l’équité et surveillance sur le lieu de travail (OCDE, 2023[25]). Par exemple, l’IA pourrait rendre les emplois moins épanouissants et plus stressants en favorisant de nouvelles formes de surveillance sur le lieu de travail, ou encore un « taylorisme numérique » hyper-efficace mais épuisant, où le travail est soumis à un contrôle et une régulation accrus, y compris via la gestion algorithmique (UC Berkeley, 2021[125] ; Commission européenne, 2025[126])14. D’autres travaux ont montré que cette surveillance par l’IA peut nuire à la santé mentale (APA, 2023[127]) et que la gestion des tâches par l’IA peut réduire l’autonomie des travailleurs ainsi que leur capacité à faire entendre leur voix, affaiblissant ainsi les rapports humains dans l'organisation du travail (Gmyrek, Berg et Bescond, 2023[128]). Cependant, lorsqu’ils sont bien utilisés, ces outils peuvent aussi contribuer à améliorer la sécurité et le bien-être des travailleurs (par exemple en les alertant sur les dangers et les risques ou en identifiant des signes de surmenage) (Commission européenne, 2025[126]). La gestion algorithmique et ses effets font déjà l’objet d’études dans le secteur privé (OCDE, 2023[25]). En revanche, les travaux sur son usage dans le secteur public restent limités, alors même qu'on assiste à une adoption rapide de ces technologies dans les administrations (Commission européenne, 2025[126]).
Tensions entre protection de la vie privée et gouvernance des données
Le développement et le déploiement de systèmes d’IA présentent des défis en matière de protection de la vie privée et de gouvernance des données tout au long du cycle de vie de l’IA (OCDE, 2024[129] ; à paraître[130]). Pendant la phase d’entraînement, de nombreux développeurs s’appuient sur des sources en accès libre pour constituer des ensembles de données d’entraînement, qui peuvent inclure, délibérément ou non, des données à caractère personnel ou des informations protégées par des droits de propriété intellectuelle. Or le simple fait qu’une donnée soit accessible en ligne ne signifie pas qu’elle peut être librement collectée et utilisée pour entraîner des modèles d’IA. Par ailleurs, certaines personnes peuvent avoir partagé leurs données à caractère personnel en donnant leur consentement pour un ou plusieurs usages spécifiques, sans que cela englobe nécessairement l’entraînement de modèles d’IA (ICO, 2023[131]). Comme toute activité de traitement des données, la collecte de données à caractère personnel à des fins d’entraînement des systèmes d’IA est encadrée par des principes de protection de la vie privée reconnus et énoncés dans la Recommandation du Conseil de l’OCDE concernant les Lignes directrices régissant la protection de la vie privée et les flux transfrontières de données de caractère personnel (dites « Lignes directrices de l’OCDE sur la protection de la vie privée ») (1980[104]). Ces principes exigent que les données à caractère personnel soient recueillies par des moyens licites et loyaux, avec le consentement de la personne concernée, et que toute utilisation ultérieure des données reste compatible avec les finalités initialement prévues.
Un autre aspect essentiel à prendre en considération est la capacité des modèles d’IA à mémoriser des données à caractère personnel dans leurs paramètres au cours de la phase d’entraînement. De ce fait, les GML qui alimentent les outils d’IA générative textuelle présentent un risque particulier d’accès et d’utilisation non autorisés des données à caractère personnel de tiers, à l'insu des personnes concernées (Brown et al., 2022[132]). Certains travaux montrent également que les modèles d’IA générative sont capables de déduire avec une grande précision, et à moindre coût, les attributs personnels de la personne concernée à partir d’un texte (Staab et al., 2023[133]). Cela pose des problèmes en matière de protection de la vie privée, notamment lorsque ces déductions peuvent révéler des informations ou des caractéristiques personnelles que la personne concernée n’avait pas l’intention de partager.
Au stade du déploiement, les systèmes d’IA peuvent également entrer en conflit avec les droits des personnes à accéder aux données à caractère personnel les concernant, à les corriger et, le cas échéant, à les supprimer (on parte de « principe de la participation individuelle » dans les Lignes directrices de l’OCDE sur la vie privée). Le respect de ces droits peut s’avérer techniquement complexe et exiger beaucoup de ressources, car cela suppose d’identifier des points de données spécifiques relatives à une personne au sein d’ensembles non structurés voire, dans certains cas, de réentraîner le modèle. En outre, des recherches menées avant la généralisation des modèles d’IA générative ont montré qu'il est parfois possible de reconstruire ou de désanonymiser les données d’entraînement d’origine en analysant le comportement d’un modèle les ayant intégrées (Salem et al., 2018[134]). Pour remédier à ces tensions, encourager une coopération internationale renforcée entre les communautés spécialisées en protection des données et en intelligence artificielle peut contribuer à harmoniser les pratiques en matière de données avec le développement et l’utilisation de l’IA. À titre d’exemple, le groupe d’experts de l’OCDE sur l’IA, les données et la protection de la vie privée15 examine des pistes d’action publique en matière de gouvernance des données et de protection de la vie privée dans le contexte de l’IA, en associant des spécialistes internationaux issus de secteurs et de disciplines variés.
Cybermenaces
Les systèmes d’IA intégrés aux processus de l’administration peuvent être exposés à des cybermenaces susceptibles d’entraîner des violations de données, des atteintes à la vie privée ou des pertes de fonctionnalité. L'importante collecte et analyse de données à caractère personnel dans le cadre des applications d’IA peut engendrer la perte, l’altération ou la divulgation non autorisée de ces données et porter atteinte au droit à la vie privée des individus (Beltran, Ruiz Mondragon et Han, 2024[121]). Des accès non autorisés ou des violations de données peuvent compromettre à la fois les données à caractère personnel et l’intégrité des opérations, et provoquer des incidents tels que l’usurpation d’identité, la fraude financière ou d’autres formes d’atteinte à la vie privée qui ébranlent la confiance de la population envers les institutions et entraînent des conséquences juridiques. Par ailleurs, des acteurs malveillants peuvent manipuler les systèmes d’IA en modifiant leurs résultats et en provoquant des décisions ou des actions erronées (Brundage et al., 2018[135] ; Gopireddy, 2024[136]). Les cyber-risques peuvent être le fait d’acteurs externes mal intentionnés, mais aussi de menaces internes au sein même des administrations (Eshelby, 2025[137]). De manière générale, la cybersécurité peut être considérée comme une fonction transversale propre à l’action publique et constitue, de fait, l’un des domaines où l’adoption de l’IA par les pouvoirs publics est la plus avancée, notamment pour renforcer la sécurité des systèmes informatiques de l’État (Mariani, Kishnani et Alibage, 2025[138]). Toutefois, cette fonction hautement spécialisée ne relève pas du périmètre principal du présent rapport et ne fait donc pas l’objet d’une analyse approfondie. Cela étant, l’OCDE poursuit ses travaux sur la sécurité numérique à travers un programme dédié qui a déjà produit des contributions pertinentes en la matière16.
Risques d’exclusion
Aggravation des fractures numériques
Avec l’utilisation de l’IA dans les administrations, le risque de laisser certaines personnes de côté est étroitement lié aux fractures numériques (Nations Unies, 2024[108]), c’est-à-dire à l’écart entre ceux qui ont accès aux technologies de l’information et de la communication et ceux qui en sont privés. Ce phénomène est particulièrement visible dans la prestation de services publics et les processus d’élaboration de l’action publique, notamment dans les usages de l’IA pour l’analyse prédictive, les prévisions et la personnalisation des services.
Les fractures numériques peuvent empêcher l’accès aux bénéfices de l’IA et à la valeur qu’elle présente pour la population. C’est notamment le cas pour les populations qui manquent des infrastructures et des compétences numériques nécessaires pour interagir avec des services publics reposant sur l’IA (OCDE, 2024[14] ; UIT, 2023[139]). Si l’IA permet effectivement d’améliorer les services en fournissant des informations personnalisées, des délais de réponse plus courts ou encore une meilleure prestation de services, ses bénéfices peuvent rester inaccessibles aux personnes n’ayant pas de connexion internet ou de compétences numériques. Le passage des pouvoirs publics à la numérisation peut donc renforcer les barrières d’accès aux services publics numériques pour certains segments de la population. Au Canada, des recherches ont montré que les usagers vivant dans des zones rurales, les femmes et les filles, ainsi que les ménages à faibles revenus ont été particulièrement pénalisés par le virage vers des services numériques opéré pendant la pandémie de COVID-19 (Singh et Chobotaru, 2022[140]). En Norvège, la numérisation et l’automatisation du système d’attribution des allocations familiales ont permis à la majorité des bénéficiaires de recevoir automatiquement leurs aides. Cependant, d’autres usagers ont dû faire une demande manuelle, une contrainte qui a touché de manière disproportionnée les segments à faibles revenus (Larsson, 2021[141]).
Les fractures en matière de données représentent une autre forme d’exclusion provoquée par l’IA et liée à des données peu représentatives, qui sont une conséquence directe des fractures numériques. Les personnes n’ayant pas accès à internet sont souvent absentes des données utilisées pour développer les algorithmes. Or, la majorité des données étant collectées via internet et les interactions en ligne, ces personnes risquent d’être exclues de l’usage généralisé de l’IA à des fins d’élaboration des politiques publiques, car les algorithmes ne disposent pas de données représentatives les concernant. Ces lacunes compliquent la capacité des pouvoirs publics à répondre de manière adéquate aux besoins de l’ensemble de la population, ce qui se traduit par des ensembles de données insuffisants ou inadaptés dans les processus décisionnels et la prestation de services fondés sur l’IA. Les fractures en matière de données limitent donc les bénéfices potentiels de l’IA, comme la personnalisation des services, qui ne sont utiles et précis que pour les populations bien représentées dans les données (UNESCO, 2019[142] ; Perry et Turner Lee, 2019[143] ; Dieterle, Dede et Walker, 2022[144]).
Une autre forme de fracture numérique réside dans la sous-représentation linguistique (Röttger et al., 2024[145] ; Peixoto, Canuto et Jordan, 2024[146]). Les ensembles de données utilisés pour l’entraînement des modèles ont tendance à surreprésenter les langues les plus répandues, comme le montre le Graphique 1.4. Ce déséquilibre peut aboutir à des systèmes d’IA qui ne servent pas correctement les groupes linguistiques moins dominants. Des initiatives de préservation linguistique, comme le programme estonien « Donate a Speech », permettent de compenser les limites actuelles de la technologie vocale, qui favorisent les langues les plus utilisées, et d’améliorer la prestation de services (OCDE, 2023[38]). D’autres éléments et exemples sont abordés dans la section du Chapitre 4 consacrée à la création d’un socle de données solide.
Graphique 1.4. Plus de la moitié (59 %) des ensembles de données d’entraînement d’IA en open source sont en anglais
Copier le lien de Graphique 1.4. Plus de la moitié (59 %) des ensembles de données d’entraînement d’IA en open source sont en anglaisRépartition des langues en pourcentage pour les ensembles de données d’entraînement d’IA en open source sur Hugging Face
Note : Le graphique ci-dessus représente la répartition des langues à l’échelle de la totalité des ensembles de données. Sur Hugging Face, les ensembles de données multilingues ou de traduction contiennent plusieurs langues, ils sont donc comptabilisés plusieurs fois. Pour plus d’informations concernant la méthodologie utilisée : https://oecd.ai/huggingface.
Source : OECD.AI (2024), visualisations créées par JSI à partir de données de la plateforme Hugging Face. Dernière mise à jour le 5 juin 2025 (consulté le 16 juin 2025).
Remplacement de la main-d’œuvre au sein de la fonction publique
L’OCDE (2023[25]) a constaté que, bien que l’IA soit capable d’automatiser des tâches non routinières, ses effets futurs sur le marché du travail demeurent incertains. Ils dépendront de l’équilibre entre, d’une part, le remplacement de la main-d’œuvre humaine par l’IA, et d’autre part, l’augmentation de la demande de travail liée aux gains de productivité permis par l’IA ainsi que la création de nouveaux emplois induits par l’adoption de ces technologies. L’IA peut accroître la productivité des administrations publiques en automatisant certaines tâches et elle pourrait également réduire les besoins de main-d’œuvre humaine, ce qui invite à doter les fonctionnaires de nouvelles compétences afin qu’ils puissent se concentrer sur des missions à plus forte valeur ajoutée (Peixoto, Canuto et Jordan, 2024[146]).
En parallèle, le déploiement de l’IA génère dans l'ensemble de l’économie une demande croissante de compétences spécialisées dans ce domaine, et le secteur public ne fait pas exception. À mesure que les postes liés à l’IA se multiplient, les efforts de recrutement et de rétention dans les fonctions traditionnelles ou non technologiques pourraient diminuer, ce qui souligne la nécessité d’une main-d’œuvre maîtrisant l’IA et les technologies connexes pour répondre à l’évolution de la demande (Acemoglu et al., 2022[147]).
Les technologies d’IA ont un impact sur de nombreux métiers et secteurs, touchant les travailleurs de tous nivaux de compétences et influençant les dynamiques du marché de l’emploi (OCDE, 2023[25]). Si certains fonctionnaires peuvent s’adapter à l’IA, voire en tirer profit pour améliorer leur travail, d’autres, comme les travailleurs plus âgés et moins qualifiés qui accomplissent des tâches faciles à automatiser, s’exposent à des risques importants. Cela montre que les bénéfices de l’IA ne sont pas répartis de manière égale au sein de la fonction publique (Milanez, 2023[148]). Par exemple, les agents conversationnels alimentés par l’IA sont désormais largement utilisés pour la prestation de services et la communication avec les usagers afin de répondre aux questions simples et fournir des informations, ce qui réduit la nécessité de recourir à des agents humains dans les services d’accueil et de renseignement (Acemoglu, 2024[149]).
Pendant longtemps, les craintes liées à l’automatisation des emplois se concentraient sur les métiers peu qualifiés. Aujourd’hui, les tâches à forte intensité cognitive sont elles aussi de plus en plus assistées par l’IA, cette problématique peut donc être étendue aux fonctionnaires chargés d’analyser les politiques publiques. L’IA générative est capable de produire des textes pertinents, d’analyser des données et même de formuler des stratégies d’action publique pour répondre à des défis complexes. De nombreux fonctionnaires devront être formés pour collaborer efficacement avec l’IA et se recentrer sur la réflexion stratégique et les processus décisionnels à un niveau plus élevé.
Risques de résistance de la population
Acceptation sélective des résultats produits par l’IA, ce qui peut être source d’erreurs
La compréhension des interactions entre l’homme et l’intelligence artificielle est aujourd’hui considérée comme un défi majeur pour l’administration publique, avec des implications notables en termes de confiance et de légitimité. À mesure que les gouvernements intègrent l’IA dans leurs processus décisionnels, l’acceptation de ces systèmes par la population devient essentielle. Or des études montrent que les décisions fondées sur des algorithmes, bien qu’elles promettent une certaine neutralité, ne sont pas toujours perçues comme justes ou légitimes, en particulier lorsqu’elles vont à l’encontre des attentes des personnes ou lorsqu’elles manquent de transparence (Alon-Barkat et Busuioc, 2022[116]).
Les citoyens interprètent les décisions fondées sur des algorithmes à travers leurs propres perceptions cognitives et leurs croyances préexistantes. Ils ont tendance à accepter plus volontiers les recommandations générées par l’IA lorsque celles-ci confirment leurs attentes et à rejeter celles qui les contredisent (Alon-Barkat et Busuioc, 2022[116]). Cette adhésion sélective peut renforcer les erreurs déjà présentes dans les processus décisionnels de l’administration, car les individus peuvent être plus enclins à faire confiance aux prédictions des algorithmes qui confirment des stéréotypes ou des connaissances préalables.
Un manque d’informations et de compréhension concernant le recours à l’IA dans l’administration
Souvent, la population souffre d’un manque de connaissance et de compréhension qui porte à la fois sur l’IA en général et sur la manière dont les pouvoirs publics l’utilisent (Arnesen et al., 2024[150]). Cela peut alimenter des malentendus ou des craintes concernant ses capacités réelles et la façon dont elle est utilisée par les pouvoirs publics. Ce manque de connaissance et de compréhension peut également donner lieu à la diffusion de rumeurs en ligne sur l’usage de l’IA dans l’élaboration des politiques publiques ou dans la prestation de services tels que l’octroi de prêts ou l’accès à la justice et aux aides sociales. Cela s’explique par la complexité inhérente à l’IA, souvent mal comprise, qui peut entraîner des idées fausses concernant les processus décisionnels, l’équité des résultats, ou encore la possibilité de demander des comptes à ces systèmes, ainsi que par le manque de transparence entourant l’utilisation de l’IA par les autorités. Ce manque de transparence ou de compréhension contribue à alimenter le scepticisme à l’égard des intentions des pouvoirs publics, ce qui peut engendrer une résistance aux solutions basées sur l’IA dans les services publics (Valle-Cruz, Garcia-Contreras et Gil-Garcia, 2023[96]).
Les décisions prises par l’IA peuvent être perçues comme trop rigides ou dépourvues de toute responsabilité, notamment lorsqu’il n’y a pas de supervision humaine ou de mécanisme de recours. Les recherches montrent que lorsque les citoyens se sentent dépossédés de leur pouvoir dans leurs interactions avec des systèmes automatisés, par exemple lorsqu’ils ne peuvent pas contester une décision erronée, cela accroît leur détresse psychologique ainsi que les efforts nécessaires pour se mettre en conformité (Alon-Barkat et Busuioc, 2024[72]).
À l'inverse, un niveau élevé d’information dans la population, de transparence, de connaissance et de compréhension du fonctionnement de l’IA dans l’action publique est associé à une plus grande confiance dans la capacité des pouvoirs publics à utiliser ces technologies de manière responsable (Lahusen, Maggetti et Slavkovik, 2024[151] ; KPMG, 2025[152] ; Alessandro et al., 2021[153]). Une population bien informée est davantage en mesure de reconnaître les garanties et les considérations éthiques mises en œuvre par les pouvoirs publics, ce qui renforce la confiance dans leurs compétences et leur intégrité en matière de déploiement des technologies d’IA.
Les mauvais usages de l’IA et les scandales peuvent freiner la confiance et constituer un facteur de résistance au sein de la population
L’utilisation de l’IA dans l’administration a donné lieu à plusieurs scandales retentissants et à des cas de préjudices concrets. Ces évènements rappellent à quel point les mauvais usages de l’IA peuvent nuire à la réputation des institutions, certaines affaires anciennes continuant d’alimenter les débats publics. L’échec visible d’un seul système d’IA peut suffire à miner la confiance envers l’ensemble des applications publiques de cette technologie (Longoni, Cian et Kyung, 2022[154]). Dans certains cas, les réactions négatives de la population ont été si fortes qu’elles ont entraîné le retrait du consentement au partage des données ou freiné l’usage des outils existants (Ada Lovelace Institute, 2025[155]).
La réaction de la population est particulièrement vive lorsque les erreurs de l’IA provoquent des dommages tangibles, comme le refus injustifié de prestations sociales ou un traitement discriminatoire fondé sur des prédictions biaisées. Ces échecs visibles renforcent le scepticisme de la population et alimentent les inquiétudes quant aux effets des décisions assistées par l’IA sur l’équité procédurale et la responsabilité démocratique (Alon-Barkat et Busuioc, 2022[116]). Les données de l’outil de suivi des incidents liés à l’IA (AIM) de l’OCDE confirment une augmentation des incidents et des risques liés à l’IA qui ont été rapportés par des médias reconnus ces dernières années (Graphique 1.5)17. En avril 2025, 3 816 des 14 981 incidents recensés (soit 25 %) concernaient la catégorie « gouvernement, sécurité et défense », ce qui illustre l'impératif pour les pouvoirs publics de maîtriser ces risques afin de préserver la confiance des citoyens.
Graphique 1.5. Les incidents liés à l’IA sont en hausse constante depuis la fin de 2022
Copier le lien de Graphique 1.5. Les incidents liés à l’IA sont en hausse constante depuis la fin de 2022
Note : Une présentation de la méthodologie est disponible à l’adresse https://oecd.ai/incidents-methodology.
Source : Outil de suivi des incidents liés à l’IA (AIM) de l’OCDE – https://oecd.ai/incidents.
Les citoyens peuvent également manifester une forme d’aversion à l’égard des algorithmes, en rejetant les décisions automatisées par attachement à leur propre pouvoir d’agir et de contrôle, même lorsque les systèmes d’IA sont plus performants que les humains. Cette réticence est renforcée par une tolérance plus grande aux erreurs humaines qu’aux fautes commises par les algorithmes : il suffit souvent d’une seule défaillance pour que la confiance dans l’IA s’effondre, alors que des erreurs similaires sont plus aisément pardonnées lorsqu’elles sont humaines. Cette aversion pour les algorithmes se manifeste davantage dans certaines domaines (comme la sécurité publique) que dans d’autres (comme la gestion administrative), ce qui engendre des défis spécifiques et des niveaux de maturité variables selon les fonctions de l’administration (voir Chapitre 3) (Zehnle, Hildebrand et Valenzuela, 2025[156]). Le fait de donner aux usagers un aperçu du raisonnement qui sous-tend une recommandation produite par l’IA ou de leur offrir une certaine marge de modification de ses résultats peut considérablement renforcer leur adhésion et augmenter la probabilité qu’ils adoptent les conseils issus de l’IA (Sunstein, 2023[71]). Par ailleurs, cette forme d’aversion pour les algorithmes, lorsqu’elle est présente chez les fonctionnaires, peut entraver l’adoption de l’IA et de ses bénéfices dans l’administration, comme évoqué au Chapitre 3.
Risques de l’inaction
Les risques liés à l’IA sont le plus souvent abordés sous l’angle du déploiement et de l’adoption de ces technologies. Pourtant, un risque moins discuté réside dans le retard pris pour exploiter le potentiel de l’IA afin d’en tirer des bénéfices concrets, y compris dans les administrations et les services publics. L’étude One Hundred Year Study on Artificial Intelligence (AI100) (2014[21]) de l’Université de Stanford soulignait que « de nombreuses avancées dans le domaine de l’IA permettent de réduire les coûts, d’introduire de nouvelles efficacités et d’améliorer la qualité de vie ... Pourtant, ces méthodes ne sont pas largement utilisées. Cette lenteur dans la mise en œuvre des technologies se traduit par des décès et des coûts évitables. Il est urgent de mieux comprendre comment accélérer la mise en pratique des compétences et les avancées précieuses déjà existantes dans le domaine de l’intelligence artificielle ». Bien que cette étude remonte à plus de dix ans, ses conclusions restent d’actualité, en particulier en ce qui concerne les administrations. Au-delà des opportunités manquées, l’inaction face à l’IA risque d’accentuer le fossé entre les capacités du secteur public et celles du secteur privé (Pahlka, 2024[157]). Cela signifie non seulement que les pouvoirs publics pourraient prendre du retard dans l’utilisation de l’IA, mais également dans leur capacité à la réguler. Certains experts suggèrent que l’un des risques les plus critiques tient à l’incapacité des mécanismes et des institutions de gouvernance à suivre le rythme effréné des évolutions de l’IA (OCDE, 2024[14]).
Des recherches soulignent que le discours alarmiste ou anxiogène autour de l’IA peut alimenter ce blocage (Laplante et al., 2020[158]). D’autres facteurs sont également évoqués, tels que le manque de données appropriées, les incertitudes liées à la protection de la vie privée et aux complexités, ou encore la difficulté de moderniser des systèmes informatiques vieillissants. Les experts évoquent aussi le phénomène de « paralysie de l’analyse », c’est-à-dire la crainte de mal faire avec l’IA, qui peut freiner la mise en œuvre d’initiatives à faible risque mais à fort potentiel (OECD.AI, 2023[159]). Ce constat s’applique particulièrement aux administrations publiques . Les derniers travaux transversaux de l’OCDE (2024[13]) sur l’IA dans l’administration montrent que les pouvoirs publics doivent mieux valoriser et favoriser les aspects positifs de l’utilisation de l’IA, plutôt que de concentrer leurs efforts de manière disproportionnée sur la prévention des risques. Cette approche pourrait freiner le déploiement d’applications de l’IA à faible risque mais à fort impact, capables d’améliorer les politiques et services publics.
Concrétiser un avenir positif pour l’IA dans l’administration
Copier le lien de Concrétiser un avenir positif pour l’IA dans l’administrationComme évoqué précédemment, les pouvoirs publics cherchent à utiliser l’IA pour gagner : en productivité, grâce à des opérations internes plus efficaces et à des politiques et des services plus performants ; en réactivité, via des approches personnalisées qui répondent aux besoins évolutifs des citoyens et des entreprises ; ainsi qu’en responsabilité, en renforçant leur capacité de supervision. Pourtant, le potentiel de l’IA pour l’administration reste largement inexploité et les pouvoirs publics peuvent tirer parti des technologies actuelles tout et se préparant à saisir les opportunités qu’offrira l’IA à l'avenir. Une vision de l’avenir dans laquelle les pouvoirs publics développent et adoptent une IA digne de confiance commence toutefois à se dessiner.
Considérer l’IA non comme un simple outil d’automatisation, mais comme une occasion de repenser l’action publique. Nous appelons de nos vœux une transformation à long terme des services publics, dans laquelle l’IA suivrait une orientation dictée par la légitimité publique et professionnelle, au lieu de mener elle-même le changement. Les dirigeants du secteur public devraient considérer le déploiement de l’IA comme une occasion de réinventer l’État et ne pas se limiter à accroître l’efficience immédiate ou à automatiser les pratiques existantes. L’IA doit être perçue comme un levier pour une refonte en profondeur des services qui mettrait le citoyen au cœur de la prestation de services publics. – Ada Lovelace Institute (2025[155])
Cette vision transparaît dans le Chapitre 5, qui explore l’intégration de l’IA dans les fonctions essentielles de l’administration. En inscrivant l’IA dans leur parcours de transformation numérique, les pouvoirs publics peuvent aller au-delà d’une simple optimisation pour transformer leurs modes d’action, maximiser la valeur publique et favoriser le bien-être des sociétés.
Les capacités et les utilisations futures de l’IA peuvent engendrer des bénéfices et des transformations qui semblent aujourd’hui impossibles voire inimaginables. Or c’est aussi le cas pour les risques. Le contenu du Chapitre 5 reflète les connaissances actuelles sur l’IA dans l’administration et, par extension, ce que l’on peut anticiper pour l’avenir. Les pouvoirs publics et l’OCDE doivent rester vigilants quant à l’évaluation des technologies et des applications de l’IA, afin d’évaluer leurs répercussions sur les institutions publiques, les fonctionnaires et la société dans son ensemble, dans une logique d’évaluation et d’adaptation continues au service de l’intérêt général.
À partir de l’analyse et de la synthèse des fonctions gouvernementales présentées au Chapitre 5 ainsi que d’autres travaux, l’OCDE a mené des recherches transversales sur les tendances actuelles en matière d’usage de l’IA dans les fonctions de l’administration, dans le but d’alimenter la réflexion sur son déploiement au sein des pouvoirs publics. Ces travaux ont permis d’identifier des enseignements préliminaires tirés des premiers cas d’utilisation. Les résultats de ces recherches sont présentés dans le chapitre suivant.
Références
[149] Acemoglu, D. (2024), « The Simple Macroeconomics of AI », NBER Working Paper 32487, http://www.nber.org/papers/w32487.
[147] Acemoglu, D. et al. (2022), « Artificial Intelligence and Jobs: Evidence from Online Vacancies », Journal of Labor Economics, vol. 40/S1, pp. S293-S340, https://doi.org/10.1086/718327.
[155] Ada Lovelace Institute (2025), Learn fast and build things: Lessons from six years of studying AI in the public sector, Ada Lovelace Institute, https://www.adalovelaceinstitute.org/policy-briefing/public-sector-ai/.
[153] Alessandro, M. et al. (2021), « Transparency and Trust in Government. Evidence from a Survey Experiment », World Development, vol. 138, p. 105223, https://doi.org/10.1016/j.worlddev.2020.105223.
[72] Alon-Barkat, S. et M. Busuioc (2024), « Public administration meets artificial intelligence: Towards a meaningful behavioral research agenda on algorithmic decision-making in government », Journal of Behavioral Public Administration, vol. 7, https://doi.org/10.30636/jbpa.71.261.
[116] Alon-Barkat, S. et M. Busuioc (2022), « Human–AI Interactions in Public Sector Decision Making: “Automation Bias” and “Selective Adherence” to Algorithmic Advice », Journal of Public Administration Research and Theory, vol. 33/1, pp. 153-169, https://doi.org/10.1093/jopart/muac007.
[69] Aonghusa, P. et S. Michie (2020), « Artificial intelligence and behavioral science through the looking glass: Challenges for real-world application. », Annals of Behavioural Medicine, pp. 942-947, https://doi.org/10.1093/abm/kaaa095.
[127] APA (2023), Worries about artificial intelligence, surveillance at work may be connected to poor mental health, https://www.apa.org/news/press/releases/2023/09/artificial-intelligence-poor-mental-health.
[150] Arnesen, S. et al. (2024), « Knowledge and support for AI in the public sector: a deliberative poll experiment », AI & SOCIETY, https://doi.org/10.1007/s00146-024-02104-w.
[33] Austin, T. et al. (2024), A snapshot of how public sector leaders feel about generative AI, https://www2.deloitte.com/us/en/insights/industry/public-sector/ai-adoption-in-public-sector.html.
[30] BCG (2024), Where’s the Value in AI?, https://www.bcg.com/publications/2024/wheres-value-in-ai.
[121] Beltran, M., M. Ruiz Mondragon et S. Han (2024), « Comparative Analysis of Generative AI Risks in the Public Sector », Proceedings of the 25th Annual International Conference on Digital Government Research, pp. 610-617, https://doi.org/10.1145/3657054.3657125.
[26] Bengio, Y. et al. (2025), International AI Safety Report, DSIT 2025/001, 2025, https://www.gov.uk/government/publications/international-ai-safety-report-2025.
[37] Berglind, N., A. Fadia et T. Isherwood (2022), The potential value of AI—and how governments could look to capture it, https://www.mckinsey.com/industries/public-sector/our-insights/the-potential-value-of-ai-and-how-governments-could-look-to-capture-it (consulté le July 2024).
[8] Berryhill, J. et al. (2019), Hello, World: Artificial intelligence and its use in the public sector, Éditions OCDE, Paris, https://doi.org/10.1787/726fd39d-en.
[22] Brizuela, A. et al. (2025), Analysis of the generative AI landscape in the European public sector, Commission européenne, https://op.europa.eu/s/z4XY.
[43] Brougham, D. et J. Haar (2017), « Smart Technology, Artificial Intelligence, Robotics, and Algorithms (STARA): Employees’ perceptions of our future workplace », Journal of Management & Organization, vol. 24/2, pp. 239-257, https://doi.org/10.1017/jmo.2016.55.
[132] Brown, H. et al. (2022), « What Does it Mean for a Language Model to Preserve Privacy? », 2022 ACM Conference on Fairness, Accountability, and Transparency, pp. 2280-2292, https://doi.org/10.1145/3531146.3534642.
[135] Brundage, M. et al. (2018), The Malicious Use of Artificial Intelligence: Forecasting, Precention, and Mitigation, https://arxiv.org/abs/1802.07228.
[67] Brynjolfsson, E., L. Danielle et L. Raymond (2023), Generative AI at Work, National Bureau of Economic Research, https://doi.org/10.3386/w31161.
[112] Byler, D. (2021), In the Camps: China’s High-Tech Penal Colony, Columbia Global Reports, https://www.jstor.org/stable/j.ctv2dzzqqm.
[27] Calvino, F. et L. Fontanelli (2023), A portrait of AI adopters across countries: Firm characteristics, assets’ complementarities and productivity, Éditions OCDE, Paris, https://doi.org/10.1787/0fb79bb9-en.
[86] Chignard, S. (2013), A brief history of Open Data, https://www.paristechreview.com/2013/03/29/brief-history-open-data.
[111] Clarke, S. et J. Whittlestone (2022), A Survey of the Potential Long-term Impacts of AI - How AI Could Lead to Long-term Changes in Science, Cooperation, Power, Epistemics and Values, https://dl.acm.org/doi/abs/10.1145/3514094.3534131.
[18] Cognitus, A. (2024), 9 Agentic AI Examples: Real-World Use Cases and Applications, https://integrail.ai/blog/agentic-ai-examples.
[126] Commission européenne (2025), Study exploring the context, challenges, opportunities, and trends in algorithmic management, Commission européenne, https://employment-social-affairs.ec.europa.eu/study-exploring-context-challenges-opportunities-and-trends-algorithmic-management_en.
[41] Commission européenne (2024), What factors influence perceived artificial intelligence adoption by public managers, https://publications.jrc.ec.europa.eu/repository/handle/JRC138684.
[46] Corvalán, J. et E. Le Fevre Cervini (2020), Prometea experience. Using AI to optimize public institutions, https://ceridap.eu/prometea-experience-using-ai-to-optimize-public-institutions.
[162] DataHeroes (2023), Noise in Machine Learning, https://dataheroes.ai/glossary/noise-in-machine-learning.
[97] Davies, H., S. Nutley et I. Walter (2008), « Why ‘knowledge transfer’ is misconceived for applied social research », Journal of Health Services Research & Policy, vol. 13/3, pp. 188-190, https://doi.org/10.1258/jhsrp.2008.008055.
[48] Dell’Acqua, F. et al. (2025), The Cybernetic Teammate: A Field Experiment on Generative AI Reshaping Teamwork and Expertise, Elsevier BV, https://doi.org/10.2139/ssrn.5188231.
[52] Dell’Acqua, F. et al. (2023), « Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality », SSRN Electronic Journal, https://doi.org/10.2139/ssrn.4573321.
[64] Desouza, K. et B. Jacob (2014), « Big Data in the Public Sector: Lessons for Practitioners and Scholars », Administration & Society, vol. 49/7, pp. 1043-1064, https://doi.org/10.1177/0095399714555751.
[144] Dieterle, E., C. Dede et M. Walker (2022), « The cyclical ethical effects of using artificial intelligence in education », AI & SOCIETY, vol. 39/2, pp. 633-643, https://doi.org/10.1007/s00146-022-01497-w.
[68] Du, M. (2023), « Machine vs. human, who makes a better judgment on innovation? Take GPT-4 for example », Frontiers in Artificial Intelligence, vol. 6, https://doi.org/10.3389/frai.2023.1206516.
[137] Eshelby, L. (2025), Addressing insider threats in the public sector, https://www.openaccessgovernment.org/addressing-insider-threats-in-the-public-sector/187801/.
[107] Fazlioglu, M. (2024), Consumer Perspectives of Privacy and Artificial Intelligence, https://iapp.org/resources/article/consumer-perspectives-of-privacy-and-ai/.
[101] Feldstein, S. (2022), AI & Big Data Global Surveillance Index (2022 updated), https://doi.org/10.17632/gjhf5y4xjp.4.
[24] Filippucci, F., P. Gal et M. Schief (2024), Miracle or Myth? Assessing the macroeconomic productivity gains from Artificial Intelligence, Éditions OCDE, Paris, https://doi.org/10.1787/b524a072-en.
[73] Fitkov-Norris, E. et N. Kocheva (2025), « Leveraging AI for strategic foresight: Unveiling future horizons », dans Improving and Enhancing Scenario Planning, Edward Elgar Publishing, https://doi.org/10.4337/9781035310586.00023.
[54] Flavián, C. et L. Casaló (2021), « Artificial intelligence in services: current trends, benefits and challenges », The Service Industries Journal, vol. 41/13-14, pp. 853–859, https://doi.org/10.1080/02642069.2021.1989177.
[23] Gartner (2024), Gartner 2024 Hype Cycle for Emerging Technologies Highlights Developer Productivity, Total Experience, AI and Security, https://www.gartner.com/en/newsroom/press-releases/2024-08-21-gartner-2024-hype-cycle-for-emerging-technologies-highlights-developer-productivity-total-experience-ai-and-security.
[122] Gerlich, M. (2025), « AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking », Societies, vol. 15/1, p. 6, https://doi.org/10.3390/soc15010006.
[56] Giest, S. (2017), « Big data for policymaking: fad or fasttrack? », Policy Sciences, vol. 50/3, pp. 367-382, https://doi.org/10.1007/s11077-017-9293-1.
[128] Gmyrek, P., J. Berg et D. Bescond (2023), Generative AI and Jobs: A global analysis of potential effects on job quantity and quality, OIT, https://doi.org/10.54394/FHEM8239.
[117] Goldman, S. (2023), OpenAI has grand ‘plans’ for AGI. Here’s another way to read its manifesto, https://venturebeat.com/ai/openai-has-grand-plans-for-agi-heres-another-way-to-read-its-manifesto-the-ai-beat/.
[136] Gopireddy, R. (2024), Securing AI Systems: Protecting Against Adversarial Attacks and Data Poisoning, https://jsaer.com/download/vol-11-iss-5-2024/JSAER2024-11-5-276-281.pdf.
[95] Gouvernement de la République de Corée (2024), A New Chapter in the Age of AI: Basic Act on AI Passed at the National Assembly‘s Plenary Session, https://www.msit.go.kr/eng/bbs/view.do?bbsSeqNo=42&mId=4&mPid=2&nttSeqNo=1071.
[66] Green, B. (2022), « The flaws of policies requiring human oversight of government algorithms », Computer Law & Security Review, vol. 45, p. 105681, https://doi.org/10.1016/j.clsr.2022.105681.
[160] Grzegorzek, J. (2024), Digital Taylorism: The Use of Data to Monitor Employees, https://medium.com/%40JerryGrzegorzek/digital-taylorism-the-use-of-data-to-monitor-employees-582b331d970a.
[75] Gupta, T. et S. Roy (2024), « Applications of Artificial Intelligence in Disaster Management », Proceedings of the 2024 10th International Conference on Computing and Artificial Intelligence, pp. 313-318, https://doi.org/10.1145/3669754.3669802.
[28] Hampole, M. et al. (2025), Artificial Intelligence and the Labor Market, National Bureau of Economic Research, Cambridge, https://doi.org/10.3386/w33509.
[62] Höchtl, J., P. Parycek et R. Schöllhammer (2015), « Big data in the policy cycle: Policy decision making in the digital era », Journal of Organizational Computing and Electronic Commerce, vol. 26/1-2, pp. 147-169, https://doi.org/10.1080/10919392.2015.1125187.
[89] Ho, D. (2023), Opportunities and Risks of Artificial Intelligence in the Public Sector, https://law.stanford.edu/2023/05/25/opportunities-and-risks-of-artificial-intelligence-in-the-public-sector/.
[115] Horowitz, M. (2023), Bending the Automation Bias Curve: A Study of Human and AI-based Decision Making in National Security Contexts, https://arxiv.org/abs/2306.16507.
[21] Horvitz, E. (2014), Reflections and Framing: One-Hundred Year Study on Artificial Intelligence: Reflections and Framing, https://ai100.stanford.edu/reflections-and-framing.
[53] Huang, M. et R. Rust (2021), « Engaged to a Robot? The Role of AI in Service », Journal of Service Research, vol. 24/1, pp. 30–41, https://doi.org/10.1177/1094670520902266.
[131] ICO (2023), Déclaration commune sur l’extraction de données et la protection des renseignements personnels, https://ico.org.uk/about-the-ico/media-centre/news-and-blogs/2023/08/joint-statement-on-data-scraping-and-data-protection/.
[76] Jarrahi, M. et al. (2023), « Artificial intelligence and knowledge management: A partnership between human and AI », Business Horizons, vol. 66/1, pp. 87-99, https://doi.org/10.1016/j.bushor.2022.03.002.
[87] Jeevanandam, N. (2024), AI in agriculture in 2025: Transforming Indian farms for a sustainable future, https://indiaai.gov.in/article/ai-in-agriculture-in-2025-transforming-indian-farms-for-a-sustainable-future.
[47] Jones, C. (2022), « The Past and Future of Economic Growth: A Semi-Endogenous Perspective », Annual Review of Economics, vol. 14/1, pp. 125-152, https://doi.org/10.1146/annurev-economics-080521-012458.
[120] Klingbeil, A., C. Grützner et P. Schrec (2024), Trust and reliance on AI — An experimental study on the extent and costs of overreliance on AI, https://doi.org/10.1016/j.chb.2024.108352 (consulté le September 2024).
[61] Kolkman, D. (2020), « The usefulness of algorithmic models in policy making », Government Information Quarterly, vol. 37/3, p. 101488, https://doi.org/10.1016/j.giq.2020.101488.
[57] Kopponen, A. et al. (2024), « Personalised public services powered by AI: the citizen digital twin approach », dans Research Handbook on Public Management and Artificial Intelligence, Edward Elgar Publishing, https://doi.org/10.4337/9781802207347.00020.
[152] KPMG (2025), Trust in artificial intelligence: global insights 2025, https://kpmg.com/au/en/home/insights/2025/04/trust-in-ai-global-insights-2025.html.
[151] Lahusen, C., M. Maggetti et M. Slavkovik (2024), « Trust, trustworthiness and AI governance », Rapports scientifiques, vol. 14/1, https://doi.org/10.1038/s41598-024-71761-0.
[158] Laplante, P. et al. (2020), « Artificial Intelligence and Critical Systems: From Hype to Reality », Computer, vol. 53/11, pp. 45-52, https://doi.org/10.1109/mc.2020.3006177.
[141] Larsson, K. (2021), « Digitization or equality: When government automation covers some, but not all citizens », Government Information Quarterly, vol. 38/1, p. 101547, https://doi.org/10.1016/j.giq.2020.101547.
[114] Lima, G. et al. (2022), « The Conflict Between Explainable and Accountable Decision-Making Algorithms », 2022 ACM Conference on Fairness, Accountability, and Transparency, pp. 2103-2113, https://doi.org/10.1145/3531146.3534628.
[154] Longoni, C., L. Cian et E. Kyung (2022), « Algorithmic Transference: People Overgeneralize Failures of AI in the Government », Journal of Marketing Research, vol. 60/1, pp. 170-188, https://doi.org/10.1177/00222437221110139.
[17] Lorenz, P., K. Perset et J. Berryhill (2023), Initial policy considerations for generative artificial intelligence, Éditions OCDE, Paris, https://doi.org/10.1787/fae2d1e6-en.
[70] Ludwig, J. et S. Mullainathan (2022), « Algorithmic Behavioral Science: Machine Learning as a Tool for Scientific Discovery », SSRN Electronic Journal, https://doi.org/10.2139/ssrn.4164272.
[32] Manning, B., K. Zhu et J. Horton (2024), Automated Social Science: Language Models as Scientist and Subjects, https://arxiv.org/abs/2404.11794.
[138] Mariani, J., P. Kishnani et A. Alibage (2025), Government’s less trodden path to scaling generative AI, https://www2.deloitte.com/us/en/insights/industry/public-sector/government-faces-challenges-with-generative-ai-adoption.html.
[35] Mellouli, S., M. Janssen et A. Ojo (2024), « Introduction to the Issue on Artificial Intelligence in the Public Sector: Risks and Benefits of AI for Governments », Digital Government: Research and Practice, vol. 5/1, pp. 1-6, https://doi.org/10.1145/3636550.
[123] Meng, J. (2024), AI emerges as the frontier in behavioral science, https://doi.org/10.1073/pnas.2401336121.
[34] Mergel, I. et al. (2023), « Implementing AI in the public sector », Public Management Review, pp. 1-14, https://doi.org/10.1080/14719037.2023.2231950.
[148] Milanez, A. (2023), The impact of AI on the workplace: Evidence from OECD case studies of AI implementation, Éditions OCDE, Paris, https://doi.org/10.1787/2247ce58-en.
[124] Milanez, A., A. Lemmens et C. Ruggiu (2025), Algorithmic management in the workplace: New evidence from an OECD employer survey, Éditions OCDE, Paris, https://doi.org/10.1787/287c13c4-en.
[58] Mills, S., S. Costa et C. Sunstein (2023), « AI, Behavioural Science, and Consumer Welfare », J Consum Policy, vol. 46, pp. 387–400, https://doi.org/10.1007/s10603-023-09547-6.
[108] Nations Unies (2024), Governing AI for Humanity, https://www.un.org/sites/un2.un.org/files/governing_ai_for_humanity_final_report_en.pdf.
[55] Nations Unies (2022), E-Government Survey 2022: The Future of Digital Government, Nations Unies, https://desapublications.un.org/sites/default/files/publications/2022-09/Web%20version%20E-Government%202022.pdf.
[102] Nikiforova, A. et al. (2023), « Towards High-Value Datasets Determination for Data-Driven Development: A Systematic Literature Review », dans Lecture Notes in Computer Science, Electronic Government, Springer Nature Suisse, Cham, https://doi.org/10.1007/978-3-031-41138-0_14.
[20] NIST (2025), Technical Blog: Strengthening AI Agent Hijacking Evaluations, https://www.nist.gov/news-events/news/2025/01/technical-blog-strengthening-ai-agent-hijacking-evaluations.
[49] Noy, S. et W. Zhang (2023), « Experimental evidence on the productivity effects of generative artificial intelligence », Science, vol. 381/6654, pp. 187-192, https://doi.org/10.1126/science.adh2586.
[90] OCDE (2025), How Innovation Ecosystems Foster Citizen Participation Using Emerging Technologies in Portugal, Spain and the Netherlands, Examens de l’OCDE sur la gouvernance publique, Éditions OCDE, Paris, https://doi.org/10.1787/2cb37a30-en.
[79] OCDE (2025), Privacy Enhancing Technologies (PETs) and Artificial Intelligence (AI): Enabling collaborative development and sharing of AI models with trust, Éditions OCDE.
[161] OCDE (2025), « Towards a common reporting framework for AI incidents », OECD Artificial Intelligence Papers, n° 34, Éditions OCDE, Paris, https://doi.org/10.1787/f326d4ac-en.
[5] OCDE (2024), « 2023 OECD Digital Government Index: Results and key findings », Documents de travail du Département des affaires économiques de l’OCDE, n° 44, Éditions OCDE, Paris, https://doi.org/10.1787/1a89ed5e-en.
[129] OCDE (2024), « AI, data governance and privacy: Synergies and areas of international co-operation », OECD Artificial Intelligence Papers, n° 22, Éditions OCDE, Paris, https://doi.org/10.1787/2476b1a4-en.
[14] OCDE (2024), « Assessing potential future artificial intelligence risks, benefits and policy imperatives », OECD Artificial Intelligence Papers, n° 27, Éditions OCDE, Paris, https://doi.org/10.1787/3f4e3dfb-en.
[163] OCDE (2024), « Defining AI incidents and related terms », OECD Artificial Intelligence Papers, n° 16, Éditions OCDE, Paris, https://doi.org/10.1787/d1a8d965-en.
[4] OCDE (2024), Enquête de l’OCDE sur les déterminants de la confiance dans les institutions publiques – résultats 2024 : Instaurer la confiance dans un contexte complexe, Éditions OCDE, Paris, https://doi.org/10.1787/80ddd09b-fr.
[7] OCDE (2024), « Explanatory memorandum on the updated OECD definition of an AI system », OECD Artificial Intelligence Papers, n° 8, Éditions OCDE, Paris, https://doi.org/10.1787/623da898-en.
[105] OCDE (2024), Global Trends in Government Innovation 2024 : Fostering Human-Centred Public Services, Examens de l’OCDE sur la gouvernance publique, Éditions OCDE, Paris, https://doi.org/10.1787/c1bc19c3-en.
[13] OCDE (2024), Governing with Artificial Intelligence : Are governments ready ?, Éditions OCDE, Paris, https://doi.org/10.1787/26324bc2-en.
[92] OCDE (2024), Les faits sans le faux : Lutter contre la désinformation, renforcer l’intégrité de l’information, Éditions OCDE, Paris, https://doi.org/10.1787/4078bb32-fr.
[59] OCDE (2024), Modernising Access to Social Protection : Strategies, Technologies and Data Advances in OECD Countries, Éditions OCDE, Paris, https://doi.org/10.1787/af31746d-en.
[11] OCDE (2024), OECD Artificial Intelligence Review of Germany, Éditions OCDE, Paris, https://doi.org/10.1787/609808d6-en.
[15] OCDE (2024), Perspectives de l’économie numérique de l’OCDE 2024 (Volume 1) : Cap sur la frontière technologique, Éditions OCDE, Paris, https://doi.org/10.1787/e34abd55-fr.
[6] OCDE (2024), Recommandation du Conseil sur l’intelligence artificielle, https://legalinstruments.oecd.org/fr/instruments/OECD-LEGAL-0449.
[31] OCDE (2023), Artificial Intelligence in Science : Challenges, Opportunities and the Future of Research, Éditions OCDE, Paris, https://doi.org/10.1787/a8d820bd-en.
[80] OCDE (2023), « Emerging privacy-enhancing technologies: Current regulatory and policy approaches », Documents de travail de l’OCDE sur l’économie numérique, n° 351, Éditions OCDE, Paris, https://doi.org/10.1787/bf121be4-en.
[38] OCDE (2023), Global Trends in Government Innovation 2023, Examens de l’OCDE sur la gouvernance publique, Éditions OCDE, Paris, https://doi.org/10.1787/0655b570-en.
[25] OCDE (2023), Perspectives de l’emploi de l’OCDE 2023 : Intelligence artificielle et marché du travail, Éditions OCDE, Paris, https://doi.org/10.1787/aae5dba0-fr.
[88] OCDE (2023), « The state of implementation of the OECD AI Principles four years on », OECD Artificial Intelligence Papers, n° 3, Éditions OCDE, Paris, https://doi.org/10.1787/835641c9-en.
[109] OCDE (2022), Emerging future AI risks, OCDE, https://wp.oecd.ai/app/uploads/2023/03/OECD-Foresight-workshop-notes-1.pdf.
[93] OCDE (2022), « Measuring the environmental impacts of artificial intelligence compute and applications: The AI footprint », Documents de travail de l’OCDE sur l’économie numérique, n° 341, Éditions OCDE, Paris, https://doi.org/10.1787/7babf571-en.
[40] OCDE (2022), « OECD Framework for the Classification of AI Systems », Documents de travail de l’OCDE sur l’économie numérique, n° 323, Éditions OCDE, Paris, https://doi.org/10.1787/cb6d9eca-en.
[83] OCDE (2021), Data-Driven, Information-Enabled Regulatory Delivery, Éditions OCDE, Paris, https://doi.org/10.1787/8f99ec8c-en.
[65] OCDE (2020), Axer le secteur public sur les données : marche à suivre, Éditions OCDE, Paris, https://doi.org/10.1787/0090312e-fr.
[2] OCDE (2020), Embracing Innovation in Government - Global Trends 2020: Innovative responces to the COVID-19 crisis, Éditions OCDE, https://trends.oecd-opsi.org/trend-reports/innovative-covid-19-solutions/.
[100] OCDE (2020), « Risques liés à la sécurité numérique pendant la crise du coronavirus (COVID-19) », Les réponses de l’OCDE face au coronavirus (COVID-19), Éditions OCDE, Paris, https://doi.org/10.1787/ba8e6d3a-fr.
[3] OCDE (2020), « The OECD Digital Government Policy Framework: Six dimensions of a Digital Government », Documents de travail du Département des affaires économiques de l’OCDE, n° 02, Éditions OCDE, Paris, https://doi.org/10.1787/f64fed2a-en.
[82] OCDE (2019), Boîte à outils de l’OCDE sur le contrôle et la mise en œuvre de la réglementation, Éditions OCDE, Paris, https://doi.org/10.1787/705e3dc1-fr.
[84] OCDE (2019), Rapport sur les données ouvertes publiques : Encourager la maturité des politiques de données ouvertes pour un impact durable, Éditions OCDE, Paris, https://doi.org/10.1787/12ea5027-fr.
[103] OCDE (2017), Recommandation du Conseil sur la gouvernance des données de santé, https://legalinstruments.oecd.org/fr/instruments/OECD-LEGAL-0433.
[1] OCDE (2014), Recommandation du Conseil sur les stratégies numériques gouvernementales, Éditions OCDE, https://legalinstruments.oecd.org/fr/instruments/OECD-LEGAL-0406.
[104] OCDE (1980), Recommendation of the Council concerning Guidelines Governing the Protection of Privacy and Transborder Flows of Personal Data, https://legalinstruments.oecd.org/fr/instruments/OECD-LEGAL-0188.
[130] OCDE (à paraître), Mapping Relevant Data Collection Mechanisms for AI Training, Éditions OCDE.
[10] OCDE/CAF (2022), The Strategic and Responsible Use of Artificial Intelligence in the Public Sector of Latin America and the Caribbean, Examens de l’OCDE sur la gouvernance publique, Éditions OCDE, Paris, https://doi.org/10.1787/1f334543-en.
[12] OCDE/UNESCO (2024), Boîte à outils du G7 sur l’utilisation de l’intelligence artificielle dans le secteur public, Éditions OCDE, Paris, https://doi.org/10.1787/421c1244-en.
[16] OECD.AI (2023), OECD Expert Group on AI Futures – Meeting 2 (18th & 20th September 2023), https://wp.oecd.ai/app/uploads/2024/01/Expert-Group-on-AI-Futures-Meeting-2-Summary.pdf.
[159] OECD.AI (2023), What do you see as the as the most significant potential benefits and risks of AI 10+ years from now?, https://oecd.ai/en/network-of-experts/ai-futures/discussions/future-benefits-risks.
[118] Olson, P. (2023), Don’t Go Down That AI Longtermism Rabbit Hole, https://www.bloomberg.com/opinion/articles/2023-05-19/ai-longtermism-alarmists-are-dragging-us-all-down-existential-rabbit-hole.
[157] Pahlka, J. (2024), AI meets the cascade of rigidity, https://www.niskanencenter.org/ai-meets-the-cascade-of-rigidity/.
[119] Passi, S. et M. Vorvoreanu (2022), Overreliance on AI: Literature review, https://www.microsoft.com/en-us/research/publication/overreliance-on-ai-literature-review/ (consulté le September 2024).
[146] Peixoto, T., O. Canuto et L. Jordan (2024), AI and the Future of Government: Unexpected Effects and Critical Challenges, https://www.policycenter.ma/publications/ai-and-future-government-unexpected-effects-and-critical-challenges.
[42] Pencheva, I., M. Esteve et S. Mikhaylov (2018), « Big Data and AI – A transformational shift for government: So, what next for research? », Public Policy and Administration, vol. 35/1, pp. 24-44, https://doi.org/10.1177/0952076718780537.
[50] Peng, A. et al. (2023), The Impact of AI on Developer Productivity: Evidence from GitHub Copilot, https://arxiv.org/abs/2302.06590.
[143] Perry, A. et N. Turner Lee (2019), AI is coming to schools, and if we’re not careful, so will its biases, https://www.brookings.edu/articles/ai-is-coming-to-schools-and-if-were-not-careful-so-will-its-biases/.
[19] Purdy, M. (2024), What Is Agentic AI, and How Will It Change Work?, https://hbr.org/2024/12/what-is-agentic-ai-and-how-will-it-change-work.
[106] Rainie, L. et J. Anderson (2024), Experts Imagine the Impact of Artificial Intelligence by 2040, https://imaginingthedigitalfuture.org/wp-content/uploads/2024/02/AI2040-FINAL-White-Paper-2-2.29.24.pdf.
[145] Röttger, P. et al. (2024), « SafetyPrompts: a Systematic Review of Open Datasets for Evaluating and Improving Large Language Model Safety », arXiv.org, https://doi.org/10.48550/arXiv.2404.05399.
[113] Russell, S. (2019), Human Compatible: Artificial Intelligence and the Problem of Control, Viking.
[99] Saheb, T. (2022), « Ethically contentious aspects of artificial intelligence surveillance: a social science perspective », AI and Ethics, vol. 3/2, pp. 369-379, https://doi.org/10.1007/s43681-022-00196-y.
[134] Salem, A. et al. (2018), ML-Leaks: Model and Data Independent Membership Inference Attacks and Defenses on Machine Learning Models, https://arxiv.org/abs/1806.01246.
[39] Santiso, C. (2023), Public Governance in the Age of Artificial Intelligence, https://www.chandlerinstitute.org/governancematters/public-governance-in-the-age-of-artificial-intelligence.
[36] Santos, R. et al. (2024), « The use of AI in government and its risks: lessons from the private sector », Transforming Government: People, Process and Policy, https://doi.org/10.1108/tg-02-2024-0038.
[78] Sanzogni, L., G. Guzman et P. Busch (2017), « Artificial intelligence and knowledge management: questioning the tacit dimension », Prometheus, vol. 35, pp. 37-56, https://doi.org/10.1080/08109028.2017.1364547.
[45] Sapci, A. et H. Sapci (2019), « Innovative Assisted Living Tools, Remote Monitoring Technologies, Artificial Intelligence-Driven Solutions, and Robotic Systems for Aging Societies: Systematic Review », JMIR Aging, vol. 2/2, p. e15429, https://doi.org/10.2196/15429.
[98] Shane, J. (2019), You Look Like a Thing and I Love You: How Artificial Intelligence Works and Why It’s Making the World a Weirder Place, https://www.hachettebookgroup.com/titles/janelle-shane/you-look-like-a-thing-and-i-love-you/9780316525220/.
[140] Singh, V. et J. Chobotaru (2022), « Digital Divide: Barriers to Accessing Online Government Services in Canada », Administrative Sciences, vol. 12/3, p. 112, https://doi.org/10.3390/admsci12030112.
[133] Staab, R. et al. (2023), Beyond Memorization: Violating Privacy Via Inference with Large Language, https://arxiv.org/abs/2310.07298.
[71] Sunstein, C. (2023), « The use of algorithms in society », The Review of Austrian Economics, vol. 37/4, pp. 399-420, https://doi.org/10.1007/s11138-023-00625-z.
[74] Sun, W., P. Bocchini et B. Davison (2020), « Applications of artificial intelligence for disaster management », Natural Hazards, vol. 103/3, pp. 2631-2689, https://doi.org/10.1007/s11069-020-04124-3.
[110] Tegmark, M. (2017), Life 3.0: Being Human in the Age of Artificial Intelligence, Penguin, https://mitpressbookstore.mit.edu/book/9781101970317.
[51] The Economist (2025), How AI will divide the best from the rest, https://www.economist.com/finance-and-economics/2025/02/13/how-ai-will-divide-the-best-from-the-rest.
[91] Tse, T. et S. Karimov (2022), Decision-making risks slow down the use of artificial intelligence in business, https://blogs.lse.ac.uk/businessreview/2022/05/18/decision-making-risks-slow-down-the-use-of-artificial-intelligence-in-business-1/.
[9] Ubaldi, B. et al. (2019), State of the art in the use of emerging technologies in the public sector, Éditions OCDE, Paris, https://doi.org/10.1787/932780bc-en.
[125] UC Berkeley (2021), Positive AI Economic Futures, Forum économique mondial, https://www.weforum.org/reports/positive-ai-economic-futures.
[139] UIT (2023), Measuring digital development: Facts and Figures 2023, https://www.itu.int/en/ITU-D/Statistics/Pages/facts/default.aspx (consulté le July 2024).
[142] UNESCO (2019), Artificial Intelligence in Education: Challenges and Opportunities for Sustainable Development, https://www.gcedclearinghouse.org/sites/default/files/resources/190175eng.pdf.
[94] Union européenne (2024), Règlement (UE) 2024/1689 établissant des règles harmonisées concernant l’intelligence artificielle, Union européenne, https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=OJ:L_202401689.
[81] US GAO (2024), Fraud Risk Management: 2018-2022 Data Show Federal Government Loses an Estimated $233 Billion to $521 Billion Annually to Fraud, Based on Various Risk Environments, https://www.gao.gov/products/gao-24-105833.
[85] USGS (2024), Landsat’s Economic Value increased to $25.6 Billion in 2023, https://www.usgs.gov/news/featured-story/landsats-economic-value-increases-256-billion-2023.
[60] Valle-Cruz, D. et al. (2020), « Assessing the public policy-cycle framework in the age of artificial intelligence: From agenda-setting to policy evaluation », Government Information Quarterly, vol. 37/4, p. 101509, https://doi.org/10.1016/j.giq.2020.101509.
[96] Valle-Cruz, D., R. Garcia-Contreras et R. Gil-Garcia (2023), « Exploring the negative impacts of artificial intelligence in government: the dark side of intelligent algorithms and cognitive machines », International Review of Administrative Sciences, https://doi.org/10.1177/002085232311870.
[29] Williams, C. (2025), There will be no immediate productivity boost from AI, https://www.economist.com/the-world-ahead/2024/11/20/there-will-be-no-immediate-productivity-boost-from-ai.
[63] Wirjo, A. et al. (2022), Artificial Intelligence in Economic Policymaking, Policy Brief n° 52, https://www.apec.org/docs/default-source/publications/2022/11/artificial-intelligence-in-economic-policymaking/222_psu_artificial-intelligence-in-economic-policymaking.pdf.
[44] Xu, G., M. Xue et J. Zhao (2023), « The Relationship of Artificial Intelligence Opportunity Perception and Employee Workplace Well-Being: A Moderated Mediation Model », International Journal of Environmental Research and Public Health, vol. 20/3, p. 1974, https://doi.org/10.3390/ijerph20031974.
[156] Zehnle, M., C. Hildebrand et A. Valenzuela (2025), « Not all AI is created equal: A meta-analysis revealing drivers of AI resistance across markets, methods, and time », International Journal of Research in Marketing, https://doi.org/10.1016/j.ijresmar.2025.02.005.
[77] Zhang, Z., L. Wang et C. Lee (2023), « Recent Advances in Artificial Intelligence Sensors », Advanced Sensor Research, vol. 2/8, p. 2200072, https://doi.org/10.1002/adsr.202200072.
Notes
Copier le lien de Notes← 2. Les États-Unis ont répertorié à eux seuls 2 000 cas d’utilisation dans des organismes civils du Gouvernement fédéral (https://github.com/ombegov/2024-Federal-AI-Use-Case-Inventory). De même, la Commission européenne a répertorié plus de 1 300 cas (https://interoperable-europe.ec.europa.eu/collection/public-sector-tech-watch/cases). Plus de 700 cas d’utilisation ont été répertoriés dans les administrations d’Amérique latine et des Caraïbes (ALC) (https://sistemaspublicos.tech/sistemas-de-ia-en-america-latina).
← 3. Voir https://trends.oecd-opsi.org, https://cross-border.oecd-opsi.org, (OCDE, 2023[38]) et (OCDE, 2024[105]).
← 4. Voir https://oecd-opsi.org/innovation-tag/artificial-intelligence-ai et https://oecd.ai/en/dashboards/policy-initiatives?orderBy=startYearDesc&page=1&terms=&initiativeTypeIds=123.
← 5. Ces résultats sont basés sur une enquête menée auprès de 1 000 cadres supérieurs dans 20 secteurs et 59 pays d’Asie, d’Europe et d’Amérique du Nord.
← 6. Sauf indication contraire, les sections ci-dessous sur les bénéfices de l’IA dans le secteur public sont basées sur l’analyse des fonctions de l’administration et les cas d’utilisation présentés au Chapitre 5 du présent rapport.
← 7. Le terme « bruit » est également utilisé en apprentissage automatique pour désigner des « fluctuations aléatoires ou imprévisibles dans les données, qui perturbent la capacité à identifier des schémas ou des relations cibles. Il en résulte une diminution de la précision ou de la fiabilité des prédictions ou des résultats d’un modèle » (DataHeroes, 2023[162]). Ce concept est différent de celui traité dans ce chapitre, qui se réfère aux facteurs susceptibles d’influencer les décisions humaines.
← 8. Pour de plus amples informations à ce sujet, voir https://www.oecd.org/en/topics/behavioural-science et https://oecd-opsi.org/work-areas/behavioural-insights.
← 9. Voir également https://www.oecd.org/fr/themes/technologies-d-amelioration-de-la-protection-de-la-vie-privee.html.
← 10. Voir le AI Risk Repository du MIT (répertoire des risques associés à l’IA), une base de données évolutive recensant plus de 1 000 risques inhérents à l’IA (https://airisk.mit.edu). L’outil de suivi des incidents liés à l’IA (AIM) de l’OCDE recense et décrit les incidents ainsi que les dangers liés à l’IA afin de proposer aux décideurs, aux professionnels de l’IA et aux parties prenantes du monde entier des éclairages utiles sur les risques et les préjudices associés aux systèmes d’IA (https://oecd.ai/incidents).
← 12. Le surapprentissage désigne les situations dans lesquelles un algorithme devient excessivement spécifique, au point de capter et d’accorder une importance disproportionnée au bruit et aux anomalies (Berryhill et al., 2019[8]). Pendant la phase d’entraînement, un modèle sujet au surapprentissage peut afficher un niveau de précision élevé et les problèmes sous-jacents peuvent passer inaperçus. Toutefois, une fois que le modèle est exposé à de nouvelles données, ses performances peuvent chuter de manière significative.
← 13. L’indice ne fait pas de distinction entre les utilisations légitimes et illégitimes des techniques de surveillance par l’IA. L’objectif des travaux consiste plutôt à mettre en lumière la manière dont les nouvelles capacités de surveillance transforment la faculté des gouvernements à surveiller et à suivre des personnes ou des groupes donnés.
← 14. Le taylorisme numérique désigne l’adaptation contemporaine des principes de gestion scientifique formulés par Frederick Winslow Taylor, appliquée à l’aide des technologies numériques pour surveiller et contrôler les activités des employés, dans le but d’accroître l’efficacité et la productivité. Cette approche consiste à décomposer les tâches complexes en éléments simples, à standardiser les processus de travail et à utiliser des méthodes fondées sur les données pour superviser et évaluer les performances des travailleurs. Bien qu’elle vise à optimiser le fonctionnement des organisations, ses détracteurs soulignent qu’elle peut entraîner une réduction de l’autonomie des travailleurs et une surveillance accrue sur le lieu de travail (Grzegorzek, 2024[160]).
← 16. La Direction de la science, de la technologie et de l’innovation (STI) de l’OCDE dispose d’un programme de travail spécifique sur la sécurité numérique. Voir https://www.oecd.org/fr/themes/securite-numerique.html pour plus d’informations.
← 17. Un incident lié à l’IA désigne un évènement, une circonstance ou une série d’évènements dans lesquels le développement, l’utilisation ou le dysfonctionnement d’un ou de plusieurs systèmes d’IA entraîne, de manière directe ou indirecte, l’un des préjudices suivants : a) des blessures ou des atteintes à la santé d’une personne ou d’un groupe de personnes ; b) des perturbations dans la gestion et le fonctionnement d’infrastructures essentielles ; c) des violations des droits humains ou une infraction aux obligations légales visant à protéger les droits fondamentaux, les droits des travailleurs et les droits de propriété intellectuelle ; ou d) des dommages causés aux biens, à la collectivité ou à l’environnement. Un risque lié à l’IA désigne un évènement, une circonstance ou une série d’évènements dans lesquels le développement, l’utilisation ou le dysfonctionnement d’un ou de plusieurs systèmes d’IA pourrait vraisemblablement conduire à un incident lié à l’IA, c’est-à-dire à un des préjudices suivants : a) des blessures ou des atteintes à la santé d’une personne ou d’un groupe de personnes ; b) des perturbations dans la gestion et le fonctionnement d’infrastructures essentielles ; c) des violations des droits humains ou une infraction aux obligations légales visant à protéger les droits fondamentaux, les droits des travailleurs et les droits de propriété intellectuelle ; ou d) des dommages causés aux biens, à la collectivité ou à l’environnement. Pour plus d’informations, voir https://oecd.ai/incidents-methodology et (OCDE, 2025[161] ; 2024[163]).