Ce chapitre examine les défis observés dans les cas d'utilisation analysés et dans le cadre de recherches et d'analyses plus larges. Il constate que de nombreuses initiatives gouvernementales en matière d'IA en sont encore dans leur phase pilote. Il met en évidence les obstacles communs à l'échelle du système : déficit de compétences, difficultés d'accès et de partage de données de haute qualité, manque de conseils pratiques, aversion au risque et faible mesure des résultats et du retour sur investissement. D'autres défis varient selon les fonctions, notamment une réglementation rigide ou ambiguë, des coûts élevés ou incertains et des systèmes informatiques obsolètes.
Gouverner avec l’intelligence artificielle
3. Difficultés de mise en œuvre qui entravent l’utilisation stratégique de l’IA dans l’administration
Copier le lien de 3. Difficultés de mise en œuvre qui entravent l’utilisation stratégique de l’IA dans l’administrationDescription
Principaux messages
Copier le lien de Principaux messagesL’examen réalisé par l’OCDE des cas d’utilisation de l’IA dans l’administration montre qu’il existe un grand nombre d’initiatives à un stade précoce, notamment des expérimentations et des projets pilotes. Cela indique :
des difficultés potentielles lors de la transition de la phase d’expérimentation à celle de la mise en œuvre ;
la nécessité de renforcer le suivi et le partage d’informations ; et
la nécessité éventuelle d’une action publique en faveur de la mise en œuvre et de la transposition à plus grande échelle.
Les difficultés de mise en œuvre qui sont communes à toutes les fonctions de l’État sont les suivantes :
les déficits de compétences ;
les problèmes liés à l’obtention ou au partage de données de qualité ;
le manque de cadres et d’orientations pratiques sur l’utilisation de l’IA, y compris pour des domaines spécifiques de l’action publique ;
l’aversion pour le risque ; et
la démonstration des résultats et du retour sur investissement.
Les fonctions de l’État sont confrontées à toute une série d’autres défis, dont certains sont plus répandus dans certaines fonctions que dans d’autres :
des cadres juridiques et réglementaires rigides ou obsolètes ;
les coûts élevés ou incertains de l’adoption et du déploiement à grande échelle de l’IA ; et
l’obsolescence des systèmes de technologie de l’information.
Les administrations sont confrontées à différentes difficultés de mise en œuvre en matière d’adoption de l’IA. Certaines de ces difficultés sont communes à toutes les fonctions de l’État, tandis que d’autres se font davantage sentir dans des fonctions précises. Par exemple, presque tous les domaines sont confrontés à des difficultés liées au déficit de compétences et à l’accès et au partage de données de qualité. La mise en œuvre de l’IA devrait tenir compte des environnements réglementaires spécifiques à chaque fonction, les exigences de conformité variant considérablement entre des fonctions comme les marchés publics, l’application des lois et l’administration fiscale. En outre, certaines fonctions rencontrent plus de difficultés que d’autres pour obtenir des financements ou en raison de l’obsolescence de leurs systèmes, car ce n’est qu’aujourd’hui que nous assistons à l’émergence d’infrastructures numériques qui mutualisent des services avec davantage d’interopérabilité et d’intégration. Ces difficultés peuvent se traduire en problèmes plus larges, comme la difficulté à mettre en œuvre des solutions à grande échelle et une aversion pour le risque qui freine l’innovation. Le présent chapitre examine les différentes difficultés de mise en œuvre auxquelles sont confrontées les fonctions de l’État, qui sont examinées plus en détail au chapitre 5 pour chaque fonction. Bon nombre de ces difficultés font écho aux analyses régionales spécifiques sur l’IA dans le secteur public (OCDE/CAF, 2022[1] ; Brizuela et al., 2025[2]).
La plupart des initiatives prises par les pouvoirs publics en matière d’IA sont dans la phase exploratoire ou pilote, et leur généralisation et la documentation les concernant sont limitées
Copier le lien de La plupart des initiatives prises par les pouvoirs publics en matière d’IA sont dans la phase exploratoire ou pilote, et leur généralisation et la documentation les concernant sont limitéesDifficultés potentielles lors de la transition de la phase d’expérimentation à celle de la mise en œuvre
L’examen réalisé par l’OCDE de l’utilisation de l’IA dans l’administration montre qu’il existe un grand nombre d’initiatives à un stade précoce, notamment des expérimentations et des projets pilotes. Cette analyse est conforme aux discussions menées au sein des groupes de travail et réseaux pertinents de l’OCDE, au cours desquelles des responsables gouvernementaux aux niveaux national et local ont indiqué que l’utilisation de l’IA dans l’administration publique en était à ses prémices et qu’ils cherchaient à tirer des enseignements en commençant à petite échelle et en mettant à l’épreuve différentes approches.
De manière générale, il s’agit d’une bonne approche. L’OCDE encourage depuis longtemps les pouvoirs publics, tant au niveau national que local, à tester de nouvelles approches de manière contrôlée et itérative afin de minimiser les risques et les coûts et de favoriser la survenue rapide des échecs, qui sont inévitables, afin d’en tirer des enseignements utiles aux actions futures (OCDE, 2017[3] ; 2024[4]). Ceci est essentiel, en particulier lorsque l’on se familiarise avec l’IA, dans la mesure où certaines estimations indiquent que plus de 80 % des projets d’IA échouent, un taux deux fois plus élevé que celui des projets qui ne sont pas liés à l’IA (Ryseff, De Bruhl et Newberry, 2024[5]). Par exemple, une trajectoire d’adoption de l’IA réussie peut passer par l’intégration de l’IA dans des domaines et des processus à faible risque et par l’utilisation de données générées en interne ou ouvertes afin de démontrer sa valeur et d’obtenir des résultats rapides. Un exemple de réussite est celui du Centre de services partagés de l’État pour les finances et les ressources humaines (Palkeet) en Finlande, qui a commencé par des applications simples de l’automatisation robotisée des processus, qui ont ouvert la voie à une « hyperautomatisation » à la faveur de l’apprentissage automatique (voir le chapitre 5, « L’IA dans la gestion des finances publiques »).
Cependant, l’objectif ultime de la plupart des projets d’IA est la mise en œuvre future et, le cas échéant, la généralisation des solutions efficaces. Dans de nombreux pays et fonctions de l’État, les cas d’utilisation de l’IA sont essentiellement à un stade exploratoire (par exemple, démonstrations de faisabilité, projets pilotes) et n’ont pas encore été mis en œuvre à plus grande échelle ou n’ont pas dépassé le stade d’une utilisation limitée. Par exemple, au Royaume-Uni, qui compte généralement parmi les administrations les plus avancées en matière d’utilisation de l’IA, un rapport du Comité des comptes publics du Parlement (2025[6]) a constaté que les autorités publiques ne disposaient d’aucun mécanisme systématique permettant de rassembler les enseignements tirés des projets pilotes et qu’il existait peu d’exemples d’adoption à grande échelle réussie au sein de l’administration. Les conclusions d’une enquête menée par Deloitte (2024[7]) dans 14 pays confirment les difficultés liées à la mise à l’échelle de l’IA générative en particulier, tout en soulignant qu’elles ne sont pas propres au secteur public. Selon cette enquête, un nombre important de répondants issus du secteur privé et du secteur public ont fait évoluer moins d’un tiers de leurs expériences en matière d’IA générative vers le stade de la production à grande échelle. On peut imputer cet état de fait à d’autres défis évoqués dans le présent chapitre : le manque d’expertise et les difficultés à mesurer la valeur ajoutée de l’IA générative pour les différentes missions.
Les sources de données existantes fournissent des informations sur le niveau actuel d’adoption de l’IA au sein des administrations. Par exemple, les cas d’utilisation analysés dans le cadre de ce rapport montrent que la plupart ont franchi le stade de petit projet pilote pour être mis en œuvre de manière plus complète sous une forme ou une autre. Parmi ces cas mis en œuvre, la plupart n’ont pas été étendus au-delà de leur contexte d’origine (par exemple, dans certains bureaux ou pour certains processus) afin de répondre à d’autres besoins. Néanmoins, ce n’est pas toujours un objectif, et l’utilisation qui est faite de l’IA dans certaines fonctions de l’État n’est souvent pas adaptée à d’autres fonctions. Les cas d’utilisation de l’IA pour la conception et la prestation des services publics présentés au chapitre 5 démontrent toutefois que les approches efficaces peuvent effectivement être déployées à plus grande échelle. Dans le présent rapport, la prépondérance des cas mis en œuvre dépassant le stade du projet pilote s’explique en partie par la tendance de l’OCDE à sélectionner davantage de cas déjà déployé car les informations publiques les concernant sont plus nombreuses et les pouvoirs publics plus enclins à les mentionner dans le cadre des exercices de collecte de données de l’OCDE.
D’autres sources de données apportent des éclairages complémentaires. L’observatoire Public Sector Tech Watch de la Commission européenne recueille de manière systématique des cas d’utilisation de l’IA depuis plusieurs années. Ses données concernant près de 1 500 cas d’utilisation de l’IA indiquent que la plupart des solutions d’IA se trouvent encore au stade de la planification, de l’expérimentation ou du développement (58 %), ce qui laisse penser que, dans l’ensemble du secteur public de l’UE, la majorité des cas restent expérimentaux ou n’ont pas été pleinement mis en œuvre (Graphique 3.1). Bien que le passage du stade du projet pilote à celui de la production semble constituer un défi, comme l’ont confirmé les discussions de l’OCDE avec les autorités gouvernementales, la proportion de projets mis en œuvre a progressé dans les dernières données collectées. Cela donne à penser que les autorités publiques pourraient être en train de faire la transition de la phase initiale de mise à l’épreuve de leurs initiatives vers une mise en œuvre plus complète (CE, 2024[8]). Ces données ne tiennent pas compte de la mesure dans laquelle les projets mis en œuvre ont été étendus au-delà de leur contexte initial.
Graphique 3.1. La plupart des cas d’utilisation de l’IA dans l’Union européenne (UE) sont en phase pilote ou de développement
Copier le lien de Graphique 3.1. La plupart des cas d’utilisation de l’IA dans l’Union européenne (UE) sont en phase pilote ou de développementLa base de données « Systèmes d’IA dans le secteur public dans la région Amérique latine et Caraïbes » indique une proportion bien plus élevée de cas d’utilisation mis en œuvre (70 %) (Muñoz-Cadena et al., 2025[10]). Néanmoins, ceci est probablement dû à la méthode de collecte des données propre à cette base de données, qui a été constituée par des chercheurs à partir d’informations accessibles au public. Les informations accessibles au public contiennent moins souvent des renseignements détaillés sur les cas d’utilisation planifiés ou pilotes que les données fournies par les pouvoirs publics, qui ont largement alimenté les bases de données de l’OCDE et de l’UE.
Dans l’ensemble, d’après les travaux menés par l’OCDE depuis 2019 sur l’IA dans l’administration publique, notamment en collaboration directe avec de nombreuses autorités publiques, il semble que le niveau de mise en œuvre devrait être plus élevé que celui des phases de mise à l’épreuve initiale. Le nombre élevé de cas à un stade précoce s’expliquerait facilement si les cas d’utilisation par les pouvoirs publics mettaient fortement l’accent sur l’exploitation des dernières technologies d’IA, comme les modèles de fondation d’IA générative. Cependant, les recherches menées par l’OCDE aux fins du présent rapport indiquent que ce n’est généralement pas le cas et que les pouvoirs publics continuent de privilégier des approches à plus long terme. Ces constatations donnent à penser qu’il faut mener des travaux supplémentaires dans ce domaine pour tirer des enseignements complémentaires sur les processus de transition de la planification à la mise en œuvre et à l’intensification des administrations publiques, et pour dégager des leçons plus précises et déterminer les facteurs de réussite.
Comme indiqué au chapitre 2, il est possible que certaines applications étroites mais traditionnelles de l’IA, qui sont plus susceptibles d’être mises en œuvre, voire généralisées, soient désormais tellement intégrées ou courantes qu’elles ne donnent plus lieu à des rapports externes ou qu’elles ne fassent plus objet d’une réponse dans le cadre d’une initiative de collecte de données. Cela pourrait fausser les chiffres du fait de la sous-représentation des initiatives mises en œuvre qui ne reposent pas sur les nouveaux systèmes et approches d’IA.
Le manque de données sur la continuité appelle un renforcement du suivi
Des renseignements complémentaires sont nécessaires pour mieux comprendre l’état actuel des cas d’utilisation de l’IA par les pouvoirs publics ainsi que leur évolution. Les recherches menées à l’avenir devraient examiner cette question plus en détail et suivre l’évolution du développement de solutions au fil du temps, ce qui permettrait de tirer des enseignements à la fois des réussites et des échecs. L’OCDE a cherché à examiner les progrès réalisés dans les cas d’utilisation de l’IA pertinents abordés dans des publications précédentes ; toutefois, il existe généralement peu de rapports actualisés sur les résultats des projets pilotes ou l’état d’avancement des cas d’utilisation mis en œuvre, ce qui rend difficile leur suivi dans le temps. La plupart des recherches menées pour déterminer si un cas d’utilisation est opérationnel dépendent de la possibilité d’accéder à un produit fonctionnel (s’il est public) ou de l’existence de communiqués de presse des pouvoirs publics, d’articles dans les médias, d’articles de blog ou de présentations publiques. Les cas d’utilisation partagés par le biais de rapports publics périodiques ou de référentiels officiels, notamment ceux de l’OCDE, constituent une autre source d’information. Les inventaires ou catalogues actuels sont souvent fixes ; ils présentent les projets comme des images figées, sans donner de renseignements sur leur développement et leur évolution, et ne sont souvent pas mis à jour. La collecte de données primaires par les chercheurs (c’est-à-dire les enquêtes menées directement auprès des organismes gouvernementaux afin d’identifier les nouvelles initiatives et d’obtenir des informations actualisées et des enseignements sur les initiatives connues) serait utile pour approfondir les recherches, mais elle nécessite davantage de ressources et de temps.
Ces difficultés à obtenir des informations actualisées sur les différents cas d’utilisation montrent qu’il est important que les pouvoirs publics assurent un suivi des cas d’utilisation de l’IA et procèdent à un partage systématique et régulier des informations, ce qui renforcerait encore les principes de l’OCDE en matière de transparence et de responsabilité dans le domaine de l’IA. Ceci serait utile non seulement pour les publics externes, mais aussi pour les organisations gouvernementales, qui pourraient ainsi reproduire et généraliser plus efficacement les projets d’IA en documentant et en diffusant les méthodes et les cas d’utilisation ayant réussi (et ceux et celles ayant échoué). Ce type d’approche permet d’éviter les erreurs courantes, contribue à assurer la cohérence et accélère l’adoption des technologies d’IA dans les différentes entités publiques (OCDE/UNESCO, 2024[11]). Un suivi inadapté ou inexistant peut également avoir des répercussions sur les cas d’utilisation futurs, car des innovations potentiellement efficaces en matière d’IA pourraient être négligées ou, à l’inverse, des approches réfutées pourraient être déployées à grande échelle de manière inopportune. Vous trouverez plus d’informations et d’exemples sur la manière dont certaines administrations procèdent en la matière au chapitre 4, intitulé « Promouvoir une utilisation transparente de l’IA par l’administration publique ».
Une action des pouvoirs publics pourrait être nécessaire pour favoriser la mise en œuvre et la généralisation
Le fait que de nombreuses initiatives en matière d’IA soient au stade de la planification et des projets pilotes, ou que leur progression soit incertaine, donne à penser que les pouvoirs publics doivent renforcer leurs capacités de mise en œuvre pour que les projets dépassent le stade de mise à l’épreuve initiale et garantir la réussite de leur déploiement et leur impact à long terme (CE, 2024[8]). Pour ce faire, il faut poser des jalons fondamentaux, comme garantir l’accès aux ensembles de données, aux ressources informatiques et à l’expertise nécessaire pour développer et déployer à grande échelle les projets d’IA. Ces facteurs sont examinés en détail au chapitre 4. Par ailleurs, il est nécessaire de surmonter d’autres difficultés de mise en œuvre, comme évoqué ci-après.
Défis communs partagés par les fonctions essentielles des administrations
Copier le lien de Défis communs partagés par les fonctions essentielles des administrationsLes déficits de compétences, le défi le plus commun
Une enquête menée récemment dans cinq pays par Salesforce (2024[12]) a révélé que le manque de compétences internes en matière d’utilisation de l’IA constituait le principal obstacle à l’adoption de celle-ci par les pouvoirs publics, 60 % des répondants du secteur public faisant état de cette difficulté1. Les répondants du secteur public étaient 33 % plus susceptibles de mentionner un déficit de compétences dans leur organisation par rapport à la moyenne du secteur privé. Les études menées à l’échelle nationale donnent des résultats comparables, 70 % des administrations britanniques citant le manque de compétences comme un obstacle à l’adoption de l’IA (UK NAO, 2024[13]). Dans une étude nationale menée par les syndicats auprès de 2 000 employés de la fonction publique australienne (APS) entre août et octobre 2024, 92 % ont déclaré n’avoir reçu aucune formation à l’utilisation de l’IA et seuls 16 % se sont dits capables d’utiliser cette technologie2. Toutefois, en octobre 2024 le gouvernement australien a publié et mis à la disposition de tous les employés de l'APS un module de formation sur les principes fondamentaux de l'IA dans l'administration publique et une série de sessions MasterClass sur l'IA animées par des praticiens. Il a également mis en place plusieurs dispositifs de renforcement des capacités afin d'améliorer les compétences en matière d'IA. L'initiative AI CoLab fournit un cadre pour la collaboration intersectorielle, la co-conception et l'organisation d'événements réguliers. L'accès à un outil gouvernemental d'IA via une version bêta fermée de GovAI a débuté le 5 mai 2025 et est désormais ouvert à l’ensemble des agents de l'APS depuis le 31 août 2025.
Les déficits de compétences constituent également un défi important pour les administrations infranationales (ONU-Habitat, 2024[14]). Par exemple, des enquêtes menées aux États-Unis auprès des directeurs informatiques des États et de responsables informatiques locaux ont révélé que seuls 20 % des directeurs informatiques des États et 25 % des répondants locaux étaient ne serait-ce que légèrement convaincus que leur personnel informatique possédait l’expertise nécessaire pour faire face à l’avènement de l’IA générative (NASCIO, 2024[15] ; PTI, 2024[16]). Au-delà de la concurrence entre les secteurs public et privé pour attirer les talents, qui est souvent évoquée, il arrive que les administrations nationales et infranationales se livrent concurrence entre elles pour attirer les mêmes talents, dont le nombre est limité. Les petites villes peuvent également pâtir de la « fuite des cerveaux », les jeunes talents s’installant dans les grandes villes qui offrent davantage de perspectives de carrière (de Mello et Ter-Minassian, 2020[17]).
On constate des difficultés liées aux déficits de compétences dans pratiquement toutes les fonctions de l’État examinées au chapitre 5. Ces difficultés limitent la capacité des administrations de tirer parti des dernières avancées en matière d’IA et peuvent contribuer à la réticence des fonctionnaires à accepter d’utiliser l’IA de manière générale. Dans plusieurs fonctions, les administrations peinent à déterminer exactement quels types de compétences sont nécessaires et à qui elles manquent.
Les déficits de compétences peuvent aggraver d’autres risques et difficultés (Trajkovski, 2024[18]). Par exemple, elles peuvent entraîner de mauvais résultats, une surestimation des capacités de l’IA et des systèmes d’IA et une confiance mal placée en ceux-ci, une utilisation abusive involontaire et un non-respect général des lois et d’autres règles. Les écarts de compétences au sein des administrations peuvent déboucher sur des poches d’innovation, mais celles-ci sont peu susceptibles de se généraliser.
En outre, le manque de compétences internes dans les administrations peut se traduire par un recours excessif à l’externalisation au moyen de marchés publics (Mitchell, 2025[19] ; Autio, Communigs et Elliott, 2023[20]). Si les marchés publics sont une composante importante et normale de l’acquisition de biens et services liés à l’IA, le fait de trop s’appuyer sur eux au détriment du renforcement des capacités internes peut entraîner un affaiblissement des capacités des administrations (Trajkovski, 2024[18]). Un cercle vicieux peut alors se former, dans lequel les administrations ne disposent pas des compétences nécessaires pour concevoir des programmes de perfectionnement professionnel, déterminer quelles compétences doivent faire l’objet d’un recrutement et comprendre pleinement les offres des fournisseurs afin d’acquérir les biens et services adéquats à un prix approprié. De manière générale, s’ils ne renforcent pas leurs compétences de manière proactive, les organismes publics seront contraints de se contenter de réagir aux évolutions technologiques et ne pourront pas orienter ces technologies émergentes de manière à servir efficacement les intérêts de la société (Trajkovski, 2024[18]). Si les pouvoirs publics ne sont pas en mesure de faire une utilisation efficace et efficiente de l’IA et d’en assurer un contrôle interne, il est peu probable qu’ils puissent réglementer cette technologie. Par ailleurs, cela contribue à aggraver les difficultés liées aux coûts élevés de l’adoption de l’IA, comme indiqué ci-après ; le recrutement de sous-traitants peut coûter trois à quatre fois plus cher par personne que les agents de la fonction publique (UK DSIT, 2025[21]).
Plusieurs administrations ont mis en place des programmes de perfectionnement des compétences et de recrutement ciblé (voir chapitre 4, « Promouvoir les compétences et les talents »), certaines utilisant même l’IA comme outil pour atteindre ces objectifs (voir chapitre 5, « L’IA dans la réforme de la fonction publique »).
Manque de données de qualité et incapacité à les partager
À tous les niveaux de l’administration et dans presque toutes les fonctions de l’État examinées en détail au chapitre 5, les défis liés aux données constituent un obstacle au développement et à l’utilisation de l’IA dans l’administration. Une étude récente menée par RAND (2024[5] ; 2025[22]) a révélé que les difficultés liées aux données étaient l’une des principales causes d’échec des projets d’IA, notamment le manque de données appropriées, et a souligné l’importance des tâches souvent considérées comme peu prestigieuses (par exemple, le nettoyage des données).
Dans le cas de certaines fonctions, les données nécessaires n’existent tout simplement pas ou n’ont jamais été numérisées à partir de documents papier (comme c’est souvent le cas dans l’administration de la justice), ou encore la qualité des données disponibles est insuffisante (par exemple, enregistrements mal structurés, incomplets ou mal saisis, divergences dans les formats de données, etc.). Cela peut s’expliquer par différentes raisons, notamment par des processus de saisie des données mal contrôlés, ou même par un manque de perspicacité concernant le fait que ces données pourraient un jour s’avérer importantes. Bien que ce soit chronophage et fastidieux, il est souvent possible de surmonter ces problèmes de qualité, notamment grâce à la numérisation, au nettoyage des données et aux processus de validation.
Le fait de souligner à plusieurs reprises le manque de données suffisantes et de qualité peut sembler contre-intuitif, étant donné que les pouvoirs publics disposent de volumes considérables de données et les mettent souvent à disposition sous forme de données publiques ouvertes afin, entre autres, de contribuer à l’alimentation des systèmes d’IA (OCDE, 2023[23]). Cependant, dans de nombreux cas, c’est la capacité des organes gouvernementaux de partager des données entre eux qui pose problème. Cela peut être dû à des règles qui empêchent le partage de données ou qui ne sont pas clairement comprises par les agents de la fonction publique, à des processus d’approbation qui durent plusieurs mois ou, plus rarement, à des administrations qui cèdent les droits de réutilisation des données dans le cadre de contrats conclus avec des entreprises. Ces problèmes se posent également lors du partage de données entre différentes juridictions et différents niveaux de gouvernement, ce qui complique encore davantage l’adoption de l’IA dans les administrations infranationales. Certains pays peinent à se conformer aux règles en vigueur en matière de protection et de gestion des données, comme le Règlement général sur la protection des données (RGPD) de l’Union européenne, quoique les problèmes liés à la gestion des données existaient généralement bien avant l’entrée en vigueur de ces règles. Dans d’autres cas, il existe un déficit de protocoles techniques ou stratégiques concernant le partage de données, ou un déficit d’interopérabilité entre systèmes informatiques et formats de données. Dans la plupart des cas, ces problèmes sont le reflet d’un dysfonctionnement plus systémique, à savoir une gouvernance des données inadéquate qui se traduit par une collecte et une gestion des données sporadiques, fragmentées et dépourvues de stratégie, ainsi que des règles connexes en vigueur à l’échelle de l’ensemble de l’administration. Par ailleurs, les règles relatives au partage des données qui sont obsolètes ou contraignantes alimentent ce problème et devraient être révisées afin de tenir compte des progrès technologiques tout en continuant de protéger la vie privée.
De manière générale, il est essentiel que les pouvoirs publics mettent en place des initiatives solides en matière de gouvernance et de gestion des données de manière à pouvoir adopter l’IA avec succès ; cependant, seuls 59 % des pays de l’OCDE ont mis en place une stratégie en matière de données à l’intention du secteur public, et ils sont encore moins nombreux à fournir des orientations pratiques concernant sa mise en œuvre (OCDE, 2024[24]). À défaut de mettre en place une gouvernance robuste des données, les pouvoirs publics risquent de développer et de déployer des systèmes d’IA utilisant des données de mauvaise qualité, ce qui se traduira par des conséquences allant de simples inexactitudes à des biais systémiques et des résultats injustes pour les citoyens. Sans une gouvernance robuste des données au sein de toutes les organisations et à tous les niveaux de l’administration, les ambitions des gouvernements en matière d’IA seraient contraintes d’être limitées en grande partie à de petites expérimentations et à des projets pilotes menés dans des contextes restreints, qui sont la norme aujourd’hui, comme indiqué ci-avant.
Favoriser le développement de secteurs publics reposant sur les données est depuis longtemps une priorité de l’OCDE (2020[25] ; 2023[23]), et plusieurs gouvernements mettent en place les socles de données nécessaires pour que les pouvoirs publics puissent tirer parti des avantages de l’IA (voir le chapitre 4, « Créer un socle de données solide »).
Manque de cadres et d’orientations pratiques sur l’utilisation de l’IA
Les stratégies nationales en matière d’IA dans l’administration, qu’il s’agisse de stratégies spécifiques ou de stratégies intégrées dans des instruments plus larges, sont désormais courantes et jouent un rôle important dans la définition d’une vision pour la réussite de l’IA. Néanmoins, elles ne fournissent généralement que des informations générales sur les engagements et les objectifs, et ne fournissent que peu d’indications concrètes visant à faire en sorte que les avantages de l’IA soient exploités tout en se prémunissant contre les risques liés à celle-ci. En outre, elles ne prennent souvent pas en compte les considérations opérationnelles essentielles qui permettraient de garantir leur efficacité. À titre d’exemple, les investissements et les marchés publics sont souvent négligés, alors qu’ils sont essentiels à l’IA dans le secteur public (van Noordt, Medaglia et Tangi, 2023[26] ; Monteiro, Hlacs et Boéchat, 2024[27]). Pour combler ces lacunes, les pouvoirs publics ont besoin d’orientations pratiques qui soient en phase avec les stratégies et fournissent à leurs organismes des directives et des garanties tangibles. Il est aussi important de fournir des orientations aux administrations infranationales, comme les villes. C’est important à la fois pour garantir la cohérence avec les approches nationales, car les administrations infranationales reprennent souvent les initiatives nationales ou s’en inspirent, et pour aider les administrations infranationales à atteindre leurs propres objectifs en matière de numérique et d’IA et à répondre aux besoins de leurs administrés et résidents.
Ces orientations peuvent être soit transversales, et aborder des enjeux communs à l’ensemble du système afin de promouvoir l’adoption d’une IA fiable, soit ciblées, se concentrant sur des fonctions et des applications de l’administration spécifiques. Les orientations transversales apportent clarté et orientation sur des questions fondamentales comme la gouvernance des données, le développement des talents et l’investissement. Les orientations verticales, en revanche, aident les agents de la fonction publique à saisir les opportunités et à faire face aux risques liés à l’IA en recourant à des moyens véritablement adaptés aux différents domaines stratégiques. Ces approches ne sont pas exclusives et peuvent être mises en œuvre de manière complémentaire.
De manière générale, on constate un déficit d’orientations concrètes, transversales et verticales en matière d’IA au sein des administrations. Par exemple, une enquête menée par la Commission parlementaire mixte australienne des comptes publics et de l'audit (2025[28]), qui ne reflète pas nécessairement le point de vue du gouvernement australien, a révélé que certaines administrations commencent à adopter l’IA, mais qu’elles manquent d’orientations en la matière. Elle recommande la création d’un groupe de travail à l’échelle de l’ensemble de l’administration afin de déterminer quels sont les règles et les cadres de gouvernance nécessaires aux systèmes d’IA dans l’administration. Il existe toutefois des exceptions notables, comme le « Guide sur l’IA à l’intention des administrations publiques britanniques » (chapitre 4, encadré 4.2) et l’approche structurée de la France en matière d’intégration de l’IA dans la gestion des ressources humaines (encadré 5.19). Les pouvoirs publics doivent cesser de se contenter de déclarations d’intention et fournir des orientations claires et pratiques sur l’adoption de l’IA, l’investissement, la gouvernance des données, les marchés publics et la formation de la main-d’œuvre (Morley et al., 2019[29]).
Cette lacune est mentionnée au chapitre 5 parmi les défis auxquels sont confrontées de nombreuses fonctions de l’État. Dans l’ensemble, l’absence d’orientations peut renforcer l’aversion pour le risque, car celles-ci permettent de lever les incertitudes et de dissiper les doutes que peuvent avoir les agents de la fonction publique. Le besoin d’orientations a été mentionné spécifiquement pour les fonctions liées à la conception de l’activité réglementaire, aux marchés publics, à la lutte contre la corruption et à la promotion de l’intégrité publique ainsi qu’à l’administration fiscale, afin de remédier aux incertitudes juridiques et de gouvernance, qui laissent les agents publics dans l’incertitude quant à la possibilité d’utiliser l’IA dans ces fonctions et à la manière de le faire. Dans certains cas, des orientations sont nécessaires pour comprendre précisément les lois et les règlements, ainsi que leur application pratique. Dans d’autres cas, elles apportent de la clarté dans des situations où des règles formelles n’ont pas encore été établies. Compte tenu des différences entre les divers secteurs, les approches transversales en matière d’IA doivent être accompagnées d’orientations spécialisées qui tiennent compte des défis stratégiques, des profils de risque et des environnements de données propres à chacun des secteurs. Les pouvoirs publics devront également garder à l’esprit que l’IA est un domaine qui évolue rapidement, et que ces orientations devraient être souples et devront probablement être adaptées et révisées pour suivre le rythme des évolutions.
Pour plus d’informations sur les actions menées par les pouvoirs publics pour surmonter ces difficultés, voir le chapitre 4, « Établir des mécanismes et des processus de gouvernance adaptés » et « Mesures de politique publique favorisant une IA digne de confiance ».
Stimuler l’innovation en atténuant les risques
Les travaux menés l’année dernière par l’OCDE ([30]) ont révélé qu’en matière d’IA dans l’administration, les pouvoirs publics ont tendance à se focaliser sur les aspects négatifs (c’est-à-dire sur les risques liés à l’IA et les moyens de les atténuer), et à accorder moins d’importance aux aspects positifs (c’est-à-dire aux avantages de l’IA et aux moyens d’en tirer parti). Ce phénomène n’est pas propre aux approches des pouvoirs publics en matière d’activités internes liées à l’IA. En ce qui concerne l’économie et la société dans leur ensemble, les experts en IA ont constaté que les discussions stratégiques tenues au sein des administrations et les initiatives lancées par celles-ci reconnaissent souvent que l’IA peut apporter des avantages considérables, mais que les mesures prises par les pouvoirs publics ne visent généralement pas explicitement à en tirer parti. Elles les prennent en compte indirectement, par le biais de retombées positives indirectes liées aux efforts visant à atténuer les risques (OCDE, 2024[31]). Ces experts ont exhorté les pouvoirs publics à prendre des mesures plus directes afin de tirer parti des opportunités offertes par l’IA.
Cette focalisation sur les risques peut être attribuée en grande partie à l’aversion pour le risque, qui a longtemps entravé les efforts d’innovation dans le domaine de l’administration numérique et du secteur public, favorisant une culture réfractaire au changement dans laquelle l’échec doit être évité à tout prix, y compris en matière d’IA (OCDE, 2021[32] ; 2017[3] ; 2019[33] ; Desouza, 2018[34] ; SAS, 2020[35] ; Richter, 2024[36]). Une enquête menée par Deloitte (2024[7]) a révélé que 63 % des responsables du secteur public estimaient que l’IA générative éroderait le niveau global de confiance dans les institutions nationales et mondiales. Cette prudence a contribué à ralentir l’adoption de l’IA dans le secteur public en comparaison avec le secteur privé. Des exemples d’aversion pour le risque apparaissent au chapitre 5 concernant plusieurs fonctions de l’État, notamment les marchés publics, la lutte contre la corruption et la promotion de l’intégrité publique. Par exemple, les institutions d’intégrité peuvent se montrer réticentes à prendre des risques par crainte de commettre des erreurs dans le processus d’adoption de l’IA, les orientations des pouvoirs publics mettant l’accent sur ce qu’il ne faut pas faire plutôt que sur la fourniture de lignes directrices concrètes sur la manière d’adopter une IA digne de confiance. Des problèmes surviennent également suite à la prise de mesures correctives démesurées en réponse à des incidents liés à l’IA, en particulier ceux qui sont relayés par les médias. On peut citer comme exemples les cas où des agents conversationnels des pouvoirs publics ont donné des informations erronées ou ont été piratés (Hodges, 2024[37] ; Fagan, 2024[38]). Par ailleurs, l’aversion pour le risque est un sujet fréquemment abordé dans le cadre des discussions sur l’IA dans le secteur public tenues lors des réunions des groupes de travail et forums pertinents de l’OCDE.
Les pouvoirs publics devraient adopter l’une des meilleures pratiques couramment reconnues en matière de développement de l’IA, comme l’évaluation du niveau de risque ou d’impact potentiel d’un système d’IA et l’élaboration de mesures adaptées et proportionnées permettant de surmonter les problèmes potentiels. Or, les pouvoirs publics semblent souvent considérer la plupart des initiatives en matière d’IA comme présentant un niveau de risque ou d’impact élevé, et imposent donc des exigences strictes à tous les niveaux ainsi que des contraintes administratives lourdes, ce qui décourage les fonctionnaires désireux d’innover. Cela peut constituer un frein suffisant pour bloquer les processus exploratoires, comme le montre une étude de Deloitte (2023[39]) qui a analysé toutes les initiatives stratégiques dans la base de données OECD.AI des politiques nationales en matière d’IA3. Elle a mis en évidence que les stratégies pondérées en fonction des risques, qui visent à remplacer des approches uniformisées par des approches fondées sur les données et les risques, étaient très peu nombreuses, représentant seulement 2 % des initiatives répertoriées dans la base de données. Par ailleurs, ce problème est identifié dans la stratégie américaine lancée en avril 2025 sur l’accélération de l’utilisation de l’IA au niveau fédéral grâce à l’innovation, la gouvernance et la confiance publique (« Accelerating Federal Use of AI through Innovation, Governance, and Public Trust ») ([40]), qui appelle les organismes publics à supprimer les prescriptions inutiles et bureaucratiques qui freinent l’innovation et l’adoption responsable.
En outre, les agents de la fonction publique peuvent développer une « aversion algorithmique ». C’est en quelque sorte l’inverse du « biais d’automatisation » évoqué au chapitre 1, et en vertu de celui-ci, les humains se montrent réticents à utiliser des algorithmes malgré leurs performances supérieures (Cheng et Chouldechova, 2023[41] ; Sunstein et Gaffe, 2024[42]), souvent après avoir constaté des erreurs dans les résultats fournis par l’IA. Cela donne à penser qu’il existe peut-être des déficits de compétences en matière de compréhension de l’IA, des points forts et des points faibles de celle-ci et de la manière d’utiliser de manière optimale ses résultats. Cela témoigne également d’un manque de confiance dans leurs capacités en matière de collaboration entre les humains et les machines, ainsi que d’un déficit d’environnements contrôlés permettant de tester l’IA et d’expérimenter avec celle-ci en toute sécurité. Ces biais, qui peuvent fausser la perception de la fiabilité de l’IA, peuvent être atténués par des interventions structurées, comme des formations sur les points forts et les limites de l’IA, comme évoqué plus en détail au chapitre 4 (Featherson, Shlonsky et Lewis, 2019[43]). En outre, les travailleurs doivent avoir le sentiment d’avoir voix au chapitre concernant les données utilisées pour alimenter un système d’IA et pouvoir faire appel à leur discernement professionnel pour décider de la manière dont les résultats sont utilisés (Dietvorst, Simmons et Massey, 2018[44] ; Cheng et Chouldechova, 2023[41]).
Il semble que l’aversion pour le risque liée à l’IA dans le secteur public soit en train de s’estomper, à mesure que les gouvernements se familiarisent avec cette technologie. Une étude récente menée par Google Public Sector a révélé que les préoccupations concernant l’IA des responsables informatiques du secteur public aux États-Unis, notamment en matière de confidentialité et de sécurité, diminuent (Teale, 2025[45]). Cependant, les gouvernements devront se montrer plus entreprenants pour se départir de cette vision axée sur les risques et mieux tenir compte des arbitrages qui ciblent mieux les opportunités. Les différents facilitateurs et garde-fous liés à l’IA évoqués au chapitre 4 peuvent contribuer à se détourner d’une culture fondée sur l’aversion pour le risque en faveur d’une adoption plus maîtrisée et d’une gestion éclairée des risques.
Démonstration des résultats et du retour sur investissement
Les pouvoirs publics ont accompli des progrès significatifs dans la mise en œuvre de solutions d’IA dans différents domaines du secteur public, et réalisé des avancées concrètes en matière d’efficience, de précision et de fourniture de services. Néanmoins, le suivi des progrès et l’évaluation rétrospective détaillée de l’impact restent des composantes sous-développées de la mise en œuvre de l’IA par les pouvoirs publics. Bien que des cas isolés de réussite soient bien documentés, comme illustré ci-après, on constate souvent un manque d’efforts globaux visant à évaluer la contribution de l’IA à la création de valeur publique. C’est notamment le cas au Royaume-Uni, où seuls 8 % des projets d’IA présentent des avantages mesurables et seuls 16 % font état de coûts prévisionnels, ce qui rend difficile leur évaluation dans le cadre d’une analyse coûts-avantages (UK DSIT, 2025[21]). En ce qui concerne l’IA générative en particulier, une enquête menée par Deloitte (2024[7]) dans 14 pays montre que, malgré le fait que les investissements dans l’IA devraient augmenter, 78 % des responsables publics interrogés déclarent avoir des difficultés à mesurer l’impact de l’IA générative, un taux nettement supérieur à celui des autres secteurs, ce qui constitue un obstacle à l’adoption et à la généralisation de l’IA, même lorsque d’autres difficultés, comme le déficit de compétences, sont surmontées.
Un petit nombre de solutions d’IA ont produit des résultats concrets et mesurables qui illustrent le potentiel de cette technologie pour transformer les services fournis par les pouvoirs publics. Ces résultats quantifiables constituent des références précieuses pour comprendre l’impact direct de l’IA sur l’efficacité opérationnelle et la qualité des services :
Le système péruvien d’IA Amauta Pro a modifié la rapidité avec laquelle les tribunaux peuvent répondre aux victimes de violences domestiques. Ce système fondé sur l’IA a réduit de trois longues heures à 40 secondes le temps nécessaire pour rédiger des décisions relatives aux mesures de protection. (voir l’encadré 5.63).
Dans l’Union européenne, le projet DATACROS a abouti à la mise au point d’un outil capable de détecter des anomalies dans les structures de propriété des entreprises, révélatrices de risques de corruption, de blanchiment d’argent ou d’autres délits financiers. En 2021, cet outil prédictif a permis d’identifier correctement 83 % des entreprises visées par des sanctions et 88 % de celles dont les propriétaires ont été sanctionnés (voir l’encadré 5.27).
L’Agence fédérale américaine de gestion des situations d’urgence (FEMA) a mis au point un système d’IA destiné à évaluer les dommages structurels subis par les zones touchées par l’ouragan Ian, ce qui a permis de réduire le nombre de structures nécessitant une inspection humaine de plus d’un million à seulement 77 000. Dans les 72 heures qui ont suivi le moment où l’ouragan a touché terre en 2022, la FEMA avait déjà une idée précise de l’étendue des dégâts dans les régions touchées, ce qui a permis d’accélérer l’allocation des ressources et la planification des opérations de relèvement. (voir l’encadré 5.58).
Il convient de noter en particulier les cas où les systèmes d’IA ont été explicitement comparés aux performances humaines, mettant en évidence des optimisations significatives en termes de rapidité, d’échelle et d’utilisation des ressources qui dépassent les capacités humaines. À Singapour, les agences publiques ont transformé leurs processus de recrutement grâce aux outils d’IA disponibles sur le marché, permettant ainsi à l’une d’entre elles de traiter efficacement plus de 3 000 candidatures pour son programme d’associé en gestion, ce qui lui a permis d’économiser un montant équivalent à 44 000 EUR et plus de 150 jours de productivité du personnel 4. Les comparaisons avec les performances humaines sont importantes car elles se concentrent sur le scénario contrefactuel clé nécessaire à la prise de décision fondée sur des données probantes. En outre, elles favorisent une meilleure compréhension des performances humaines, permettant ainsi de mettre en lumière les postulats implicites et les préjugés qui influencent les résultats humains.
En plus des cas d’utilisation individuels, certaines administrations ont commencé à documenter l’impact de l’IA au niveau organisationnel et national, mettant en évidence des avantages financiers et des améliorations opérationnelles considérables. Ces évaluations plus globales permettent de mesurer la valeur cumulée des investissements dans l’IA à travers toutes les fonctions de l’État. L’Australian Taxation Office, par exemple, a indiqué que son approche en matière d’IA, qui combine analyses en temps réel, formulaires préremplis et systèmes de détection des anomalies, a permis de préserver environ 78.9 millions AUD de recettes dans le cadre de plus de 636 000 interactions avec les utilisateurs en 2023-24 (encadré 5.5). De même, des résultats probants ont été constatés en Autriche grâce aux activités du Centre de compétence en analyse prédictive (PACC) du ministère fédéral des Finances, qui a permis d’analyser 6.5 millions de cas relevant des domaines de l’impôt sur le revenu, de l’impôt sur les sociétés, de la taxe sur la valeur ajoutée et des transactions douanières en 2023 (encadré 5.3). Ces analyses ont permis de déceler des irrégularités dans les déclarations de salariés et de mettre au jour des activités frauduleuses, aboutissant à des recettes fiscales supplémentaires d’environ 185 millions EUR. En ce qui concerne l’avenir, une étude récente menée par l’Alan Turing Institute (2024[46]) sur les services publics britanniques a révélé que l’IA pourrait contribuer à automatiser 84 % des transactions liées aux services de l’administration centrale, ce qui permettrait d’économiser l’équivalent d’environ 1 200 années-personnes de travail chaque année.
Malgré ces résultats positifs, ces exemples sont rares, et les pouvoirs publics rencontrent des difficultés considérables dans le suivi systématique des progrès et de l’impact de l’IA. Un des principaux obstacles est l’absence de cadres de mesure et d’évaluation bien définis permettant d’évaluer les contributions de l’IA de manière standardisée. De nombreuses applications de l’IA sont intégrées dans des processus administratifs complexes, ce qui rend délicate l’identification et la mesure de leurs effets précis. De plus, le défi que représente la comparaison entre les performances de l’IA et celles des humains est compliqué par le fait que de nombreuses tâches réalisées grâce à l’IA seraient impossibles à accomplir ou prendraient un temps excessif sans automatisation. Par ailleurs, on connaît mal les effets à long terme de l’utilisation des grands modèles de langage sur les facultés cognitives des êtres humains, et on ignore si leur utilisation régulière a une incidence sur la créativité, l’esprit critique et la productivité des personnes qui les utilisent.
Un dernier élément à prendre en considération est le fait que les différents contextes appellent un recours à des méthodologies différentes. Par exemple, un des sujets abordés lors de la dernière Table ronde de l’OCDE sur les villes intelligentes (2024[4]) était la nécessité pour les villes de réfléchir à différentes méthodes de mesure et d’évaluation de leur réussite qui soient en phase avec leurs propres objectifs, afin de pouvoir se fixer des objectifs mesurables. De premières initiatives des pouvoirs publics visant à résoudre ces problèmes voient le jour, comme le document sur les meilleures pratiques pour évaluer l’impact des méthodes d’évaluation de l’IA publié par le gouvernement britannique (Frontier economics, 2024[47]). Les États-Unis (2025[48]) ont également récemment publié une stratégie d’acquisition en matière d’IA qui souligne que les organismes publics doivent préserver l’argent des contribuables en surveillant les performances de l’IA et en maîtrisant les risques. Sans mécanismes de surveillance robustes, les pouvoirs publics risquent de se tromper dans leur estimation de la valeur et des risques potentiels de l’IA et de laisser passer des possibilités de se perfectionner.
Il est essentiel de mettre en place des cadres efficaces de mesure de l’impact afin de garantir que les investissements dans l’IA apportent une véritable valeur ajoutée aux administrations publiques et aux citoyens. À mesure que les pouvoirs publics alloueront des ressources plus importantes au développement et au déploiement de l’IA, il deviendra impératif de donner la preuve d’un retour sur investissement. Des mécanismes d’évaluation rétrospective de l’impact fiables peuvent aider les responsables politiques à prendre des décisions éclairées concernant la généralisation des solutions d’IA, l’optimisation de l’allocation des ressources et la pertinence de financements supplémentaires. En outre, l’évaluation d’impact apporte des informations essentielles permettant de perfectionner les systèmes et les approches d’IA, ce qui favorise l’instauration de cycles d’amélioration continue. La documentation des résultats facilite également le partage des connaissances entre les différents organismes publics, ce qui permet de généraliser les approches efficaces et d’éviter de reproduire celles qui ont échoué. Avant tout, il est essentiel de rendre compte de manière transparente des impacts de l’IA, tant positifs que négatifs, afin de conserver la confiance du public et de respecter le principe de redevabilité, à mesure que ces technologies sont intégrées de manière de plus en plus marquée dans les fonctions et activités fondamentales des pouvoirs publics. Chaque contexte appelle des méthodes d’évaluation différentes, mais les pouvoirs publics devraient s’efforcer de comparer les effets de la mise en œuvre de l’IA à la situation qui prévaudrait en son absence. L’OCDE a publié des lignes directrices relatives à la sélection d’une approche d’évaluation fondée sur une série de facteurs fondamentaux (Varazzani et al., 2023[49]).
Difficultés moins courantes ou variables selon les fonctions de l’État
Copier le lien de Difficultés moins courantes ou variables selon les fonctions de l’ÉtatCadres juridiques et réglementaires rigides ou obsolètes
Les environnements réglementaires rigides, obsolètes ou inadaptés (par exemple, trop contraignants ou lacunaires) engendrent de nombreuses difficultés. Comme évoqué précédemment, de nombreuses fonctions sont soumises à des restrictions réglementaires ou juridiques en matière d’accès aux données et de partage de celles-ci. En outre, la précision de l’IA peut susciter des interrogations, notamment quant à savoir si des erreurs involontaires introduites par l’utilisation de l’IA pourraient aboutir à un non-respect des réglementations et d’autres normes, par exemple en matière de rapports financiers. La complexité des réglementations est un autre facteur à prendre en compte. Par exemple, les agents de l’administration fiscale doivent composer avec des lois très complexes en matière de procédures fiscales, ce qui les amène à s’appuyer largement sur des approches classiques fondées sur des règles. Ces difficultés sont aussi courantes au niveau local qu’au niveau national (OCDE, 2024[4]).
Il arrive parfois que le problème ne tienne pas aux réglementations existantes mais aux lacunes dans celles-ci, qui sont source d’interrogations quant à ce qui est autorisé en matière d’IA. Ces interrogations peuvent aggraver d’autres difficultés, comme l’aversion pour le risque ou la préférence pour le maintien du statu quo (Samuleson et Zeckhauser, 1988[50]). Par exemple, parce que cette question n’est pas spécifiquement abordée dans de nombreux pays, les responsables des marchés publics ne savent souvent pas avec certitude si l’IA peut être utilisée dans les processus de passation de marchés, et craignent que cela ne les expose à des contestations de la part des soumissionnaires non retenus ou d’autres parties remettant en cause l’équité du processus. Cela entraîne un déficit général d’incitation au changement. Des interrogations subsistent également quant à savoir si l’utilisation de systèmes d’IA avancés, souvent très performants mais fonctionnant de manière opaque, peut satisfaire aux normes réglementaires, comme les normes d’audit internationales ou les règles de preuve du système pénal. En revanche, les personnes peuvent continuer à travailler sans recourir à l’IA afin de se préserver de ces risques, en ne tirant néanmoins pas parti des avantages liés à l’utilisation de l’IA.
Les environnements réglementaires sont source d’un défi unique lié à la conception et à la prestation de l’activité réglementaire. En dehors des dispositions restreignant l’utilisation de l’IA, les autorités de réglementation devraient également faire preuve de prudence et éviter de modifier fréquemment les réglementations, ainsi que la manière dont elles sont mises en œuvre et appliquées. Les entités soumises à ces réglementations ont besoin d’un niveau de clarté et de prévisibilité leur permettant de se conformer aux réglementations tout en minimisant les perturbations dans leurs activités commerciales. Des modifications fréquentes de la réglementation, même si elles s’appuient sur des informations fiables fournies par l’IA, peuvent créer une instabilité réglementaire et compliquer la planification par les entreprises de stratégies à long terme et l’accès du public aux informations sur les lois en vigueur.
Les pouvoirs publics peuvent surmonter ces difficultés en veillant à ce que les réglementations et les autres dispositions officielles soient à jour, flexibles et les moins ambiguës possible. Des éléments indiquent que les pouvoirs publics évoluent dans cette direction, Deloitte (2023[39]) ayant constaté que les réglementations évolutives, qui passent du modèle consistant à « réglementer pour oublier » à une approche réactive et interactive, constituent l’un des types de stratégies les plus courants recensés par l’Observatoire OCDE des politiques relatives à l’IA. Il est également important d’élaborer des orientations complémentaires qui aident à replacer les réglementations dans le contexte de fonctions de l’État spécifiques. Pour plus d’informations sur la manière dont les pouvoirs publics procèdent en la matière, voir le chapitre 4, « Établir des mécanismes et des processus de gouvernance adaptés » et « Mesures de politique publique favorisant une IA digne de confiance ».
Coûts élevés ou incertains de l’adoption et du déploiement à grande échelle de l’IA
Si l’adoption de l’IA peut permettre de réduire les coûts grâce à une productivité et une efficacité accrues, de nombreuses organisations publiques ont du mal à réaliser les investissements financiers initiaux nécessaires pour se lancer dans l’IA ou pour généraliser les cas d’utilisation qui ont fait leurs preuves. Ces coûts peuvent varier, allant du paiement de droits de licence par employé pour des solutions d’IA basées sur des services, comme ChatGPT ou Microsoft Copilot, à des frais importants de développement, de personnalisation et d’assistance liés à des solutions plus adaptées ou internes (Shark, 2025[51] ; Barrett et Greene, 2024[52]). Au Royaume-Uni, une enquête menée par SAS (2025[53]) auprès de fonctionnaires a révélé que les restrictions budgétaires et financières étaient la principale difficulté (citée par 67 % des personnes interrogées), suivie de près par le déficit de compétences internes (63 %). Malgré l’importance cruciale du financement de l’IA, l’indice de l’administration numérique de l’OCDE (2024[24]) révèle que seuls 15 % des pays de l’OCDE ont mis en place un cadre d’investissement pour les investissements publics dans l’IA.
Le chapitre 5 décrit les défis financiers liés à l’adoption de l’IA auxquels sont confrontées différentes fonctions de l’État, notamment dans le domaine de la conception et de la prestation de l’activité réglementaire, des services publics, de l’administration fiscale, de la lutte contre la corruption et de la promotion de l’intégrité publique, ainsi que de la participation civique. Dans certains cas, ces défis financiers sont également liés aux coûts associés au recrutement ou à l’acquisition de talents qualifiés, les déficits de compétences étant abordés ci-dessus comme un défi distinct. Des fonctions comme des administrations fiscales ont aussi indiqué que le processus de fixation des budgets au sein de l’administration publique relevait du défi.
Ce défi peut contribuer au fait que l’OCDE constate que les gouvernements semblent souvent bloqués aux phases exploratoires et pilotes et que la généralisation des solutions efficaces reste limitée. Par exemple, les administrations fiscales ont indiqué à l’OCDE que la mise en place de projets pilotes de petite envergure est peu coûteuse et facile, même avec des systèmes avancés obtenus auprès du secteur privé. Néanmoins, ces coûts peuvent augmenter de manière exponentielle à mesure que les offres d’IA sont mises en œuvre à plus grande échelle au sein des organisations ou généralisées à d’autres composantes de l’administration. Les coûts sont particulièrement élevés pour les solutions conçues sur mesure ; un groupe de dix pays travaillant sur l’IA au service de l’intérêt public a indiqué que le principal obstacle à la mise à l’échelle des modèles d’IA semblait être le manque de disponibilité et d’accessibilité financière des capacités de calcul (France Élysée, 2025[54]).
Les pouvoirs publics doivent prendre conscience du fait que ne pas investir suffisamment dans la technologie augmente les coûts à long terme et le coût total de possession (UK DSIT, 2025[21]). Certaines administrations entendent résoudre ces problèmes par des investissements ciblés, ainsi que par la mise en place de services centraux qui contribuent à alléger la nécessité pour chaque organisme public de développer ou d’acheter ses propres solutions. Le chapitre 4 fournit des informations en la matière aux sections intitulées « Réaliser des investissements ciblés », « Créer une infrastructure numérique » et « Créer des espaces pour expérimenter » D’autres administrations utilisent également des modèles open source ou explorent des modèles plus petits pouvant être conçus pour répondre à des besoins sociétaux et communautaires spécifiques et nécessitant moins de puissance de calcul et de données (France Élysée, 2025[54]).
Bien que les coûts que les administrations et le chapitre 5 mettent en lumière soient financiers, il importe que les administrations publiques gardent à l’esprit que les coûts monétaires ne sont pas les seuls à avoir une incidence sur l’adoption et le déploiement à grande échelle de l’IA. Les coûts psychologiques liés à l’utilisation de l’IA peuvent également avoir une incidence sur la mesure dans laquelle les individus utilisent les outils d’IA dans leur travail quotidien, même si des investissements sont réalisés pour mettre ces outils à leur disposition. Ces coûts peuvent inclure les coûts de recherche, qui surviennent lorsque les personnes recherchent des informations mais tombent sur des informations obsolètes, des formulations ambiguës ou des prescriptions qui prêtent à confusion, ou les coûts cognitifs, c’est-à-dire les ressources mentales que les personnes dépensent pour comprendre des informations complexes (Shahab et Lades, 2021[55]). Les audits mis en œuvre pour faire la « chasse à la bureaucratie » sont des évaluations méthodiques du comportement d’un processus réalisées afin d’identifier, prévenir et réduire les frictions inutiles et les coûts psychologiques qui empêchent les gens de prendre des mesures qu’ils auraient sans cela adoptées (OCDE, s.d.[56]). En menant ce type d’audits en rapport avec l’utilisation des outils d’IA, les pouvoirs publics peuvent comprendre et lever les obstacles à l’acceptation qui pourraient limiter l’adoption et la généralisation de l’IA.
Les pouvoirs publics ne savent pas toujours précisément combien peuvent ou doivent coûter le développement et l’utilisation de l’IA
Les difficultés évoquées ci-dessus sont particulièrement significatives lorsque ces coûts sont connus. Les pouvoirs publics ont indiqué à l’OCDE qu’il existe souvent des incertitudes ou un manque de clarté quant au coût que pourrait ou devrait représenter le développement ou l’utilisation de différents types de systèmes d’IA. Ainsi, les organismes publics ont du mal à faire une planification efficace et à évaluer les offres des fournisseurs lorsqu’ils souhaitent recourir aux marchés publics pour trouver des solutions. Mieux connaître ces coûts peut contribuer à garantir que les pouvoirs publics sont prêts à adopter des systèmes d’IA de manière stratégique et durable. Néanmoins, l’OCDE n’a pu répertorier aucune étude consacrée au coût du développement ou de l’utilisation de différents types de systèmes d’IA dans l’administration. Ce domaine semble donc propice à des recherches et analyses plus approfondies. Il n’en reste pas moins que la compréhension des coûts dans un contexte plus large ou à partir de projets publics spécifiques liés à l’IA peut aider les pouvoirs publics à établir des estimations à des fins de planification. Cette section vise à aider les pouvoirs publics à faire les premiers pas dans cette direction, ouvrant la voie à des travaux plus approfondis de l’OCDE sur ce sujet à l’avenir.
Le coût de l’adoption de l’IA peut varier considérablement en fonction du type de système et de l’échelle à laquelle il est utilisé. Ainsi, les administrations peuvent opter pour différentes solutions en matière d’adoption de l’IA, notamment celles évoquées ci-après.
Concession de licences pour des outils du secteur privé à un prix fixe par utilisateur ou par licence
Les entreprises qui proposent des outils d’IA pratiquent souvent une tarification par utilisateur. C’est le cas pour des services tels que Microsoft 365 Copilot, ChatGPT d’OpenAI ou Claude d’Anthropic. Les licences pour ces services peuvent être achetées au niveau des entreprises, à des prix compris entre 30 et 100 USD par utilisateur et par mois. À titre d’exemple, la version entreprise de Microsoft 365 Copilot coûte 30 USD par mois5. Ainsi, une administration qui met en place un projet pilote comparable à celui mené en Australie pendant six mois et qui a concerné 7 600 employés dans 60 organismes publics (2024[57]) pourrait estimer les coûts à environ 1.37 million USD pour les seules licences, sans compter les coûts supplémentaires tels que le temps consacré par le personnel à la gestion du projet pilote et à la communication des résultats, ainsi que les autres frais généraux. Dans le cadre du projet pilote mené en Australie, le Trésor australien (2025[58]) a estimé que les frais de licence pourraient être amortis pour un fonctionnaire de niveau intermédiaire s’ils lui permettaient de gagner 13 minutes par semaine pour se consacrer à des tâches à plus forte valeur ajoutée. Les tarifs de ChatGPT Enterprise ne figurent pas sur le site web d’OpenAI, mais à notre demande, ChatGPT a indiqué que le coût variait entre 60 et 100 USD par utilisateur et par mois, sur la base du volume et des fonctionnalités. Le prix de la version entreprise de Claude dépend également des besoins et des caractéristiques des entreprises. Bien que les tarifs ne soient pas disponibles sur le site web d’Anthropic, des sites web tiers estiment le coût à 60 USD par personne et par mois 6.
Utilisation de systèmes d’IA générative du secteur privé dont la tarification est basée sur le volume, notamment au moyen des jetons
Les systèmes d’IA générative proposent souvent une tarification basée sur le volume, où le volume est calculé à partir du trafic API. Alors que l’octroi de licences est plus adapté lorsque les fonctionnaires utilisent directement les outils d’IA (par exemple, Copilot pour l’aide à la rédaction de documents), la tarification fondée sur le volume est plus pertinente lorsque les administrations mettent en place des services internes ou publics qui sont en interface avec un modèle propriétaire, ou lorsqu’elles souhaitent personnaliser (c’est-à-dire affiner) le contenu pris en compte par le modèle ou la manière dont il produit des résultats. Les principales fonctions du prix incluent les :
Jetons d’entrées : des jetons inclus dans une instruction générative, comme des consignes, du contexte ou des données envoyées au modèle.
Jetons de sortie : des jetons générés par le modèle en réponse à une entrée.
Jetons d’entraînement : données (par exemple, des extraits de texte) à partir desquelles un modèle d’IA apprend pendant son entraînement.
Les modèles voient les données comme des jetons, et pas des phrases ou des paragraphes. Le coût des jetons varie selon les entreprises et peut être fondé sur le niveau de complexité de chaque modèle et des ressources nécessaires à celui-ci. À titre d’exemple, les coûts liés à quelques modèles les plus couramment utilisés sont indiqués au Tableau 3.1.
Tableau 3.1. Coût en USD d’un million de jetons sur des modèles d’IA générative couramment utilisés
Copier le lien de Tableau 3.1. Coût en USD d’un million de jetons sur des modèles d’IA générative couramment utilisésUn million de jetons représentent environ 750 000 mots, 100 000 lignes de code, 11 heures d’enregistrement audio retranscrit ou 1 heure de vidéo retranscrite.
|
Modèle |
Jetons d’entrée |
Jetons de sortie |
Jetons d’entraînement (le cas échéant) |
|---|---|---|---|
|
OpenAI GPT-4o |
2.50 USD |
10 USD |
|
|
OpenAI GPT-4o (en cas d’ajustements à des fins de personnalisation) |
3.75 USD |
15 USD |
25 USD |
|
OpenAI GPT-3.5-turbo |
0.50 USD |
1.50 USD |
8 USD |
|
Google Gemini 2.5 Pro |
1.25 USD |
10 USD |
|
|
Google Gemini 2.0 Flash |
0.10 USD |
0.40 USD |
|
|
Mistral Large 24.11 |
2 USD |
6 USD |
9 USD |
|
Mistral NeMo |
0.15 USD |
0.15 USD |
1 USD |
Note : au 10 avril 2025 Les coûts d’inférence liés à l’utilisation d’un modèle donné ou de son équivalent ont tendance à diminuer avec le temps (Stanford HAI, 2025[59]).
Source : https://openai.com/api/pricing, https://ai.google.dev/gemini-api/docs/pricing, https://mistral.ai/products/la-plateforme, https://help.openai.com/en/articles/4936856-what-are-tokens-and-how-to-count-them, https://prompt.16x.engineer/blog/code-to-tokens-conversion, https://prompt.16x.engineer/blog/code-to-tokens-conversion, https://blog.google/technology/ai/google-gemini-next-generation-model-february-2024.
De plus, certaines entreprises proposent des modèles de fondation dans des versions destinées aux administrations publiques 7. Ces systèmes sont conçus pour répondre aux normes de sécurité strictes des pouvoirs publics. En outre, ils se veulent adaptés aux besoins des pouvoirs publics, en leur proposant des solutions qui facilitent la gestion de leurs propres exigences en matière de sécurité, de confidentialité et de conformité, et leur permettent d’utiliser ces services pour des activités qui peuvent ne pas relever des politiques d’utilisation standard. L’expérience faite par un laboratoire d’IA d’une administration centrale dans la mise en œuvre de cette approche est présentée dans l’Encadré 3.1. Les modèles propriétaires peuvent également être utilisés en association avec des modèles open source, comme évoqué ci-dessous.
Encadré 3.1. Expérience faite par le laboratoire d’IA d’une administration centrale de l’utilisation d’un système d’IA propriétaire
Copier le lien de Encadré 3.1. Expérience faite par le laboratoire d’IA d’une administration centrale de l’utilisation d’un système d’IA propriétaireOpérations et dépenses
Le laboratoire d’IA de l’administration centrale d’un pays a mis en place une approche par étapes concernant l’exploration, la mise à l’essai et la généralisation des projets d’IA destinés à être utilisés par les agents de la fonction publique. Au total, il peut y avoir jusqu’à 100 projets à l’étude, environ 15 en phase de test limité et environ cinq à sept accessibles à des utilisateurs réels dans le cadre d’un déploiement pilote ou complet.
Le laboratoire utilise l’hébergement cloud et les services d’IA d’Azure OpenAI, Vertex AI (Google) et Amazon web Services (AWS). Son budget est d’environ 17.5 millions EUR. Tous les travaux sont réalisés en interne. La majeure partie de ses dépenses est imputable aux coûts de personnel, dont :
Un effectif de 15 équivalents temps plein de talents techniques (sept pour le développement et l’ingénierie IA, quatre pour la conception et la recherche utilisateur, quatre pour le cloud/l’infrastructure).
Six équivalents temps plein pour la gestion de la prestation de services, ce qui est essentiel pour permettre aux talents techniques de se concentrer sur les défis techniques, tandis que les responsables de la prestation de services se focalisent sur les défis stratégiques et administratifs.
Six équivalents temps plein pour des analystes d’impact qui utilisent la science des données pour étudier les résultats et l’impact des projets.
Le plus grand projet déployé compte environ 4 000 utilisateurs et huit équivalents temps plein y sont affectés. Les autres projets sont plus modestes, certains ne comptant qu’un ou deux équivalents temps plein. Au total, les produits du laboratoire comptent quelque 100 000 utilisateurs mensuels. Les coûts totaux des services d’IA cloud, jetons compris, s’élèvent à environ 3 500 EUR par mois.
Enseignements
Les premiers projets sont de loin les plus coûteux et les plus chronophages, nécessitant des investissements importants dans la mise en place d’infrastructures cloud et de modèles de déploiement pouvant être facilement réutilisés dans le cadre des projets futurs. Désormais, le déploiement d’un projet prend 30 minutes, alors qu’il fallait compter trois semaines pour les premiers projets.
Il est important de disposer d’une infrastructure cloud robuste, partagée de manière optimale entre les projets afin de favoriser les synergies.
Le laboratoire a étudié les avantages et les inconvénients de l’utilisation de modèles d’IA propriétaires par rapport à des modèles open source personnalisés (par exemple, Llama de Meta). Il est arrivé à la conclusion que les modèles propriétaires facturés au volume étaient plus intéressants, car les fonctionnaires utilisent généralement les systèmes d’IA de 9 heures à 18 heures. Pour un modèle personnalisé, il faudrait payer pour l’utilisation du GPU toute la journée, même lorsque les modèles ne sont pas utilisés. De manière générale, la tarification fondée sur les jetons était moins onéreuse pour ses besoins. De plus, cette approche permet au laboratoire de lancer plus rapidement et plus facilement de nouvelles instances de modèles. Par exemple, il peut déployer un nouveau modèle GPT-4.1 en environ cinq minutes, alors que le déploiement d’un modèle open source personnalisé pourrait nécessiter plusieurs semaines de travail sur l’infrastructure.
Dans l’ensemble, le laboratoire a estimé que l’hébergement en interne du modèle Llama aurait coûté 9 300 EUR par mois, alors qu’il dépense actuellement environ 3 500 EUR pour des jetons.
À mesure que l’utilisation des outils d’IA se développe au sein du laboratoire, celui-ci touche aux limites de ce que les fournisseurs de services cloud sont prêts à offrir en matière de tarification à l’utilisation. À mesure que leur utilisation continue de croître, ils doivent faire un choix entre les deux options suivantes : 1) acheter des capacités GPU auprès des fournisseurs de services cloud, ou 2) héberger eux-mêmes des modèles open source et payer directement l’accès à un GPU (comme mentionné dans le point précédent). Pour le laboratoire, l’option 1 pourrait être optimale, car elle permet toujours un déploiement rapide.
Le coût du développement de l’IA, tant en termes de ressources techniques (par exemple, services cloud, jetons) que de ressources humaines, diminue rapidement. Le laboratoire constate qu’il est de plus en plus possible d’utiliser l’IA pour concevoir une IA, ce qui pourrait modifier les besoins en main-d’œuvre. Les incidences de cette évolution restent à déterminer.
Source : Entretien de l’OCDE avec des responsables d’un pays dont le nom n’est pas communiqué, le 18 avril 2025. L’OCDE ne communique pas le nom du pays ou du laboratoire en raison du caractère préliminaire des estimations et analyses.
Développement d’applications d’apprentissage automatique personnalisées, spécialisées et étroites (en interne ou via un fournisseur externe)
Les systèmes d’IA étroite personnalisés en vue de la réalisation de tâches précises du secteur public peuvent engendrer des dépenses relativement modestes ou nécessiter des projets de plusieurs millions USD. Ces systèmes recourent à des approches d’apprentissage automatique développées pour des cas d’utilisation spécifiques, comme la détection des fraudes, l’optimisation de la circulation ou la classification de documents. Des pilotes peu complexes peuvent être élaborés pour quelques milliers USD, tandis que des systèmes nationaux complexes peuvent coûter des millions, voire des dizaines de millions USD, en particulier s’ils sont destinés à des applications militaires (Barnett, 2020[60]). À titre d’exemple, le gouvernement de l’Australie-Méridionale teste actuellement quatre caméras dotées d’une intelligence artificielle visant à réduire les embouteillages en analysant la congestion et en ajustant les cycles des feux de circulation, pour un coût équivalent à 218 000 USD (Jackson, 2025[61]).
Cependant, les coûts varient considérablement selon le niveau de complexité et le contexte, et des dépenses supplémentaires peuvent être requises pour la préparation des données, l’infrastructure, ainsi que la surveillance et la maintenance continues. Étant donné que les approches et les coûts associés varient considérablement selon les cas d’utilisation, il est difficile de fournir des estimations autres que ces exemples. Il pourrait s’avérer nécessaire de réaliser des analyses supplémentaires afin d’examiner différents aspects de ces cas d’utilisation et les montants déboursés par différentes administrations à travers le monde pour les financer.
Développement de systèmes d’IA à l’aide de modèles source préentraînés
En comparaison avec des modèles d’IA générative développés et entraînés sur mesure, dont il est question ci- après, les modèles d’IA open source préentraînés (comme les modèles Llama de Meta) offrent des coûts réduits tout en permettant aux pouvoirs publics de personnaliser considérablement le modèle selon leurs besoins8. Les modèles open source peuvent être hébergés en interne, soit sur le cloud, soit sur site, offrant ainsi aux pouvoirs publics un meilleur contrôle sur leurs données et conférant une meilleure efficacité économique à long terme. Bien que l’utilisation d’un modèle open source préentraîné permette de limiter les coûts de l’entraînement à ceux liés au perfectionnement, d’autres coûts peuvent rester élevés. Par exemple, un hébergement en interne permet d’éliminer les frais récurrents liés aux jetons ou aux licences, mais implique un investissement initial en matériel et en infrastructure, des ressources cloud, et une consommation d’énergie et des coûts de maintenance et d’assistance élevés.
Malgré l’investissement initial plus élevé par rapport aux solutions sous licence ou fondées sur une tarification au volume, certaines administrations ont constaté que l’hébergement en interne pouvait être rentable à grande échelle et permettre des cas d’utilisation qui ne leur seraient pas accessibles via des API commerciales (par exemple, activités sensibles de renseignement, services locaux toujours actifs ou opérations hors ligne dans des infrastructures critiques). Par exemple, le Taipei chinois a investi 7.4 millions USD pour développer son propre modèle de fondation appelé Trustworthy AI Dialogue Engine (TAIDE), qui exploite les modèles open source Llama (Creery, 2024[62]).9
L’utilisation par les pouvoirs publics de la plateforme open source Polis (encadré 5.36) correspond à une utilisation plus étroite de l’IA open source que les efforts déployés pour développer un modèle de fondation dans le cadre du projet TAIDE. Une administration qui a développé une version personnalisée et autodéployée de Polis pour une campagne de mobilisation citoyenne à grande échelle, comprenant 33 discussions régionales et nationales sur Polis auxquelles ont participé 30 000 personnes, a engagé des coûts totaux d’environ 422 500 EUR sur une période de 14 mois10. Ces dépenses se sont élevées à 195 000 EUR pour le développement web par des spécialistes, les services cloud et un sprint de co-conception externalisé de l’expérience utilisateur, et à 227 500 EUR en temps de travail du personnel pour mettre en œuvre Polis dans les flux de travail existants de l’organisation et pour coordonner et mener les activités de mobilisation citoyenne. Depuis, cette même administration a investi 200 000 EUR dans l’amélioration de son application Polis, répartis à parts égales entre les coûts techniques et les coûts de personnel. Dans le cadre de ce travail d’amélioration, une interface utilisateur a été conçue et mise en œuvre, et d’autres travaux de développement technique ont été réalisés, lesquels ont été mis à la disposition des autres utilisateurs de Polis en open source. Dans l’ensemble, cette administration estime que deux équivalents temps plein suffisent pour gérer la charge de travail, avec un ensemble varié de compétences requises (comme le développement technique, la gestion de projet, la conception de l’expérience utilisateur et la participation numérique).
Les modèles open source peuvent également être utilisés conjointement avec des modèles propriétaires. Par exemple, un des assistants virtuels dont il est question au chapitre 5 utilise à la fois Gemini 1.5 Flash de Google et un modèle Llama de Meta, avec une interface de chat et une orchestration des deux modèles développées en interne à l’aide de technologies open source11. Le système est actuellement en phase pilote et compte 18 000 utilisateurs ; les principaux coûts sont liés à l’utilisation du grand modèle de langage Gemini et à l’hébergement web dans le cloud de l’application de chat. Bien que la plateforme Gemini coûte environ 18 000 EUR par mois à l’administration, celle-ci s’attend à une réduction substantielle des coûts dès lors qu’elle aura compris comment utiliser le modèle de manière optimale. L’hébergement sur le web coûte environ 2 300 EUR par mois. Dans l’ensemble, les coûts par utilisateur et par mois sont estimés à 0.93-1.55 EUR. Les responsables ont entamé des discussions préliminaires afin d’étendre le projet pilote à d’autres départements. L’équipe chargée du développement et de la coordination est composée de quelque 10 équivalents temps plein.
Développement de modèles d’IA générative personnalisés, conçus et entraînés en partant de zéro
Le développement de modèles d’IA générative personnalisés et entraînés est généralement l’option la plus coûteuse (pour des performances comparables) en raison de l’investissement initial élevé et de la complexité opérationnelle. Les coûts liés à l’entraînement d’un grand modèle de langage dépendent de la taille du modèle (les modèles plus volumineux comptant davantage de paramètres nécessitent une plus grande puissance de calcul et consomment plus d’énergie), de la qualité et de la quantité des données d’entraînement (qui influencent le coût d’acquisition et de curation des données), de l’infrastructure choisie (entraînement sur site ou via le cloud) et de l’efficacité des algorithmes d’entraînement utilisés.
Les entreprises spécialisées dans l’IA ne divulguent souvent pas publiquement les coûts d’entraînement associés à leurs modèles, mais les chercheurs estiment que les modèles les plus utilisés actuellement se chiffrent à un total compris entre 41 et 192 millions USD (Stanford HAI, 2025[59]). Le coût de l’entraînement des modèles correspondant à l’état de la technique étant multiplié par deux ou trois chaque année, certaines études estiment que l’entraînement des modèles les plus volumineux pourrait coûter plus d’un milliard EUR d’ici 2027 (Cottier et al., 2024[63]). Bien que ces coûts puissent sembler élevés, ils sont dérisoires par rapport aux investissements considérables en recherche-développement, aux coûts de personnel et aux activités de collecte de données nécessaires pour mettre au point les modèles de fondation les plus récents (Stanford HAI, 2025[59]). Les grandes entreprises spécialisées dans l'IA doivent également remplir d’autres conditions pour développer de tels modèles, comme disposer de compétences techniques approfondies et, souvent, conclure des partenariats stratégiques avec d’autres entreprises.
Néanmoins, les pouvoirs publics n’ont pas nécessairement besoin de se lancer dans la conception de systèmes aussi vastes et puissants visant à supplanter les concurrents du marché. L’entraînement à partir de zéro des grands modèles de langage financés par les pouvoirs publics, par exemple, peut exiger moins de ressources en personnel et financières, en particulier pour ceux qui comptent moins de paramètres ou dont l’objet est la plus grande pertinence possible pour un pays, une région ou une langue donnés. Par exemple, OpenEuroLLM est doté d’un budget total de 37.4 millions EUR, ce qui signifie qu’une partie de cette somme sera consacrée à l’entraînement du modèle de fondation et une autre partie au personnel12 (CE, 2025[64]). Par ailleurs, un pays européen a développé et entraîné un grand modèle de langage dans la langue nationale pour un coût total, personnel compris, d’environ 500 000 EUR dont 300 000 EUR dédiés à l’utilisation du GPU13. Citons également le projet GPT-NL mené par les Pays-Bas, qui investissent environ 13.5 millions EUR fournis par le ministère néerlandais des Affaires économiques et du Climat pour entraîner un modèle (2023[65]). D’autres initiatives ont été entreprises aux Émirats arabes unis, en Espagne, au Japon, à Singapour et en Suède (Chavez, 2024[66]). Le modèle de langage multilingue à grande échelle, ouvert et en libre accès et développé de manière collaborative dans le cadre du projet BigScience (BLOOM)14 a bénéficié d’importantes contributions de différents organismes publics. Le projet a été principalement mené par Hugging Face et le Centre national français de la recherche scientifique (CNRS), avec le soutien d’une subvention publique pour l’utilisation du supercalculateur français « Jean Zay ». On estime que l’entraînement a coûté entre 2 et 5 millions EUR.
Systèmes de technologie de l’information obsolètes
Les ambitions de nombreux gouvernements en matière d’IA tardent à se concrétiser en raison de systèmes informatiques hérités du passé et obsolètes, qui ne sont pas adaptés au développement ou à l’utilisation de l’IA, ou qui ne permettent pas de gérer et d’échanger de grandes quantités de données interopérables et de qualité (Irani et al., 2023[67]). Ces systèmes peuvent faire manquer des opportunités importantes. Par exemple, au Royaume-Uni, les services financés par les contribuables, du National Health Service (NHS) aux collectivités locales, perdent 45 milliards GBP en gains de productivité, soit plus que nécessaire pour financer toutes les écoles primaires du Royaume-Uni pendant une année entière, car ils dépendent trop souvent de technologies anciennes et obsolètes (UK DSIT, 2025[68]). Le gouvernement (2025[21]) estime que 28 % des systèmes informatiques de l’administration centrale sont obsolètes, ce chiffre atteignant 70 % dans certains organismes, et 57 % des fonctionnaires britanniques interrogés par la société de logiciels SAS (2025[53]) ont indiqué que les systèmes hérités du passé constituaient un obstacle à l’adoption de l’IA. Le Comité des comptes publics du Royaume-Uni (2025[6]) a également indiqué que ce problème constituait un obstacle à l’utilisation de l’IA dans l’administration.
Le chapitre 5 examine l’incidence de l’obsolescence des technologies héritées du passé sur l’adoption de l’IA. Par exemple, le potentiel de l’IA dans la gestion des finances publiques est limité par l’obsolescence des systèmes d’information de gestion financière des gouvernements du monde entier, ces systèmes ayant plus de dix ans dans la plupart des pays de l’OCDE (Rivero del Paso et al., 2023[69] ; OCDE, 2024[70]). Malgré l’importance de cet enjeu, les examens et analyses relatifs aux effets négatifs des technologies héritées du passé sur l’adoption de l’IA semblent peu nombreuses dans la plupart des pays et des administrations publiques. Si le paragraphe précédent donne des renseignements détaillés sur l’ampleur du défi auquel fait face le Royaume-Uni afin d’illustrer son propos, cela tient en grande partie au fait que la plupart des autres gouvernements n’ont pas procédé aux analyses nécessaires pour présenter le problème de cette manière.
Cet enjeu dépend d’autres facteurs, notamment les coûts importants liés au financement de la remise à niveau des systèmes hérités du passé. Les technologies héritées du passé aggravent également d’autres difficultés, comme les problèmes liés aux données et la dépendance excessive vis-à-vis des sous-traitants, qui fait exploser les coûts, notamment de maintenance des systèmes obsolètes, dont le coût est souvent trois à quatre fois supérieur à celui des solutions modernes (UK DSIT, 2025[68]). Ces dépenses seraient plus utiles si elles étaient consacrées à l’innovation et à la modernisation.
Les gouvernements prennent diverses mesures pour moderniser leurs systèmes afin qu’ils soient mieux adaptés à l’IA. Dans le cadre d’une initiative inédite, le département américain de la Défense utilise l’IA pour moderniser le code informatique hérité du passé (Harper, 2024[71]). D’autres gouvernements, suivant une approche plus classique, accordent des financements ciblés aux initiatives de modernisation (voir le chapitre 4, « Financer l’IA et assurer la cohérence des investissements dans l’ensemble de l’administration »).
Pour surmonter les défis liés à la mise en œuvre décrits dans le présent chapitre et atténuer les risques décrits au chapitre 1, les gouvernements peuvent prendre des mesures. C’est d’ailleurs ce que font déjà certaines administrations centrales. Le chapitre suivant examine les mesures que les gouvernements peuvent prendre, ainsi que celles déjà mises en œuvre par certains d’entre eux, afin de garantir que l’IA soit digne de confiance et de tirer pleinement parti de son potentiel.
Références
[7] Austin, T. et al. (2024), A snapshot of how public sector leaders feel about generative AI, https://www2.deloitte.com/us/en/insights/industry/public-sector/ai-adoption-in-public-sector.html.
[57] Australia DTA (2024), Evaluation of whole-of-government trial into generative AI: Now available, https://www.dta.gov.au/blogs/evaluation-whole-government-trial-generative-ai-now-available.
[58] Australia Treasury (2025), Evaluation of a trial of generative AI (Copilot) in The Treasury, https://evaluation.treasury.gov.au/publications/evaluation-generative-artificial-intelligence.
[20] Autio, C., K. Communigs et B. Elliott (2023), A Snapshot of Artificial Intelligence Procurement Challenges, https://files.thegovlab.org/a-snapshot-of-ai-procurement-challenges-june2023.pdf.
[60] Barnett, J. (2020), JAIC awards biggest contract yet to buy AI for the battlefield, https://fedscoop.com/battlefield-ai-jaic-booz-allen.
[52] Barrett, K. et R. Greene (2024), The Future of AI For the Public Sector: The Challenges and Solutions, https://www.businessofgovernment.org/blog/future-ai-public-sector-challenges-and-solutions.
[2] Brizuela, A. et al. (2025), Analysis of the generative AI landscape in the European public sector, Commission européenne, https://op.europa.eu/s/z4XY.
[64] CE (2025), A pioneering AI project awarded for opening Large Language Models to European languages, https://digital-strategy.ec.europa.eu/en/news/pioneering-ai-project-awarded-opening-large-language-models-european-languages.
[8] CE (2024), Adoption of AI, blockchain and other emerging technologies within the European public sector – A public sector Tech Watch report, Office des publications de l’Union européenne, https://data.europa.eu/doi/10.2799/3438251.
[9] CE (2024), Public Sector Tech Watch latest dataset of selected cases, http://data.europa.eu/89h/e8e7bddd-8510-4936-9fa6-7e1b399cbd92 (consulté le 4 mars 2025).
[66] Chavez, P. (2024), Sovereign AI in a Hybrid World: National Strategies and Policy Responses, https://www.lawfaremedia.org/article/sovereign-ai-in-a-hybrid-world--national-strategies-and-policy-responses.
[41] Cheng, L. et A. Chouldechova (2023), « Overcoming Algorithm Aversion: A Comparison between Process and Outcome Control », Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems, pp. 1-27, https://doi.org/10.1145/3544548.3581253.
[63] Cottier, B. et al. (2024), The rising costs of training frontier AI models, https://arxiv.org/abs/2405.21015.
[62] Creery, J. (2024), Taiwan Builds Own AI Language Model to Counter China’s Influence, https://www.bloomberg.com/news/articles/2024-01-25/taiwan-builds-own-ai-language-model-to-counter-china-s-influence?.
[17] de Mello, L. et T. Ter-Minassian (2020), Digitalisation challenges and opportunities for subnational governments, Éditions OCDE, Paris, https://doi.org/10.1787/9582594a-en.
[34] Desouza, K. (2018), Delivering Artificial Intelligence in Government: Challenges and opportunities, https://www.businessofgovernment.org/sites/default/files/Delivering%20Artificial%20Intelligence%20in%20Government.pdf.
[44] Dietvorst, B., J. Simmons et C. Massey (2018), « Overcoming Algorithm Aversion: People Will Use Imperfect Algorithms If They Can (Even Slightly) Modify Them », Management Science, vol. 64/3, pp. 1155-1170, https://doi.org/10.1287/mnsc.2016.2643.
[38] Fagan, M. (2024), AI for the People: Use Cases for Government, https://www.hks.harvard.edu/sites/default/files/centers/mrcbg/working.papers/M-RCBG%20Working%20Paper%202024-02_AI%20for%20the%20People.pdf.
[43] Featherson, R., A. Shlonsky et C. Lewis (2019), « Intervetions to Mitigate Bias in Social Work Decision-Making: A Sytematic Review », Research on Social Work Practice, vol. 29/7, https://doi.org/10.1177/1049731518819160.
[54] France Élysée (2025), The Paris Charter on Artificial Intelligence in the Public Interest, https://www.elysee.fr/en/emmanuel-macron/2025/02/11/the-paris-charter-on-artificial-intelligence-in-the-public-interest.
[47] Frontier economics (2024), Guidance on the impact of AI interventions, https://www.frontier-economics.com/uk/en/news-and-insights/news/news-article-i21121-analysing-the-impact-of-ai-interventions-in-government.
[65] Gouvernement des Pays-Bas (2023), The Netherlands is building its own open language model GPT-NL, https://www.digitaleoverheid.nl/nieuws/nederland-bouwt-eigen-open-taalmodel-gpt-nl/.
[71] Harper, J. (2024), Pentagon using AI to modernize legacy code, https://defensescoop.com/2024/09/12/pentagon-artificial-intelligence-modernize-legacy-code-john-hale/.
[37] Hodges, D. (2024), Fumbles can’t kill the government’s AI appetite, https://www.themandarin.com.au/249756-red-faces-and-fumbles-cant-kill-governments-ai-appetite/.
[67] Irani, Z. et al. (2023), « The impact of legacy systems on digital transformation in European public administration: Lesson learned from a multi case analysis », Government Information Quarterly, vol. 40/1, p. 101784, https://doi.org/10.1016/j.giq.2022.101784.
[61] Jackson, B. (2025), South Australian drivers to be monitored by AI cameras, https://www.news.com.au/technology/south-australian-drivers-to-be-monitored-by-ai-cameras/news-story/8a63be3e80d4bba60735d58ec8c473db?utm_source=chatgpt.com.
[39] Mariani, J., W. Eggers et P. Kishnani (2023), The AI regulations that aren’t being talked about, https://www2.deloitte.com/us/en/insights/industry/public-sector/ai-regulations-around-the-world.html.
[19] Mitchell, S. (2025), Skills gap in public sector IT fuels outsourcing reliance, https://itbrief.co.uk/story/skills-gap-in-public-sector-it-fuels-outsourcing-reliance.
[27] Monteiro, B., A. Hlacs et P. Boéchat (2024), Public procurement for public sector innovation : Facilitating innovators’ access to innovation procurement, Éditions OCDE, Paris, https://doi.org/10.1787/9aad76b7-en.
[29] Morley, J. et al. (2019), « From What to How: An Initial Review of Publicly Available AI Ethics Tools, Methods and Research to Translate Principles into Practices », Science and Engineering Ethics, vol. 26/4, pp. 2141-2168, https://doi.org/10.1007/s11948-019-00165-5.
[10] Muñoz-Cadena, S. et al. (2025), Sistemas de IA en el sector público de América Latina y el Caribe (Versión V2), https://sistemaspublicos.tech/sistemas-de-ia-en-america-latina/ (consulté le 29 avril 2025).
[15] NASCIO (2024), Generative Artificial Intelligence and its Impact on State Government IT Workforces, National Association of State Chief Information Officers, https://www.nascio.org/resource-center/resources/generative-artificial-intelligence-and-its-impact-on-state-government-it-workforces/.
[24] OCDE (2024), « 2023 OECD Digital Government Index : Results and key findings », Documents d’orientation sur la gouvernance publique de l’OCDE, n° 44, Éditions OCDE, Paris, https://doi.org/10.1787/1a89ed5e-en.
[31] OCDE (2024), « Assessing potential future artificial intelligence risks, benefits and policy imperatives », OECD Artificial Intelligence Papers, n° 27, Éditions OCDE, Paris, https://doi.org/10.1787/3f4e3dfb-en.
[70] OCDE (2024), « Financial Management Information Systems in OECD countries », OECD Papers on Budgeting, n° 2024/02, Éditions OCDE, Paris, https://doi.org/10.1787/ce8367cd-en.
[30] OCDE (2024), Governing with Artificial Intelligence : Are governments ready?, Éditions OCDE, Paris, https://doi.org/10.1787/26324bc2-en.
[4] OCDE (2024), Shaping smart cities of all sizes, Éditions OCDE, https://www.oecd.org/content/dam/oecd/en/about/programmes/cfe/the-oecd-programme-on-smart-cities-and-inclusive-growth/Proceedings-4th-Roundtable-Smart-Cities-Inclusive-Growth.pdf/_jcr_content/renditions/original./Proceedings-4th-Roundtable-Smart-Cities-In.
[23] OCDE (2023), « 2023 OECD Open, Useful and Re-usable data (OURdata) Index : Results and key findings », Documents d’orientation sur la gouvernance publique de l’OCDE, n° 43, Éditions OCDE, Paris, https://doi.org/10.1787/a37f51c3-en.
[32] OCDE (2021), The OECD Framework for digital talent and skills in the public sector, Éditions OCDE, Paris, https://doi.org/10.1787/4e7c3f58-en.
[25] OCDE (2020), Axer le secteur public sur les données : marche à suivre, Éditions OCDE, Paris, https://doi.org/10.1787/0090312e-fr.
[3] OCDE (2017), Fostering Innovation in the Public Sector, Éditions OCDE, Paris, https://doi.org/10.1787/9789264270879-en.
[56] OCDE (s.d.), Documents d’orientation sur la gouvernance publique de l’OCDE, Éditions OCDE, Paris, https://doi.org/10.1787/14e1c5e8-en-fr.
[1] OCDE/CAF (2022), The Strategic and Responsible Use of Artificial Intelligence in the Public Sector of Latin America and the Caribbean, Examens de l’OCDE sur la gouvernance publique, Éditions OCDE, Paris, https://doi.org/10.1787/1f334543-en.
[11] OCDE/UNESCO (2024), G7 Toolkit for Artificial Intelligence in the Public Sector (Boîte à outils du G7 sur l’utilisation de l’intelligence artificielle dans le secteur public), Éditions OCDE, Paris, https://doi.org/10.1787/421c1244-en.
[14] ONU-Habitat (2024), Global assessment of Responsiuble AI in cities, https://unhabitat.org/sites/default/files/2024/08/global_assessment_of_responsible_ai_in_cities_21082024.pdf.
[28] Parlement australien (2025), Report 510: Inquiry into the use and governance of artificial intelligence systems by public sector entities - ’Proceed with Caution’, https://parlinfo.aph.gov.au/parlInfo/download/committees/reportjnt/RB000567/toc_pdf/Report510Inquiryintotheuseandgovernanceofartificialintelligencesystemsbypublicsectorentities-'ProceedwithCaution'.pdf.
[16] PTI (2024), AI and City/County Government: Survey Results, Public Technology Institute, https://fusionlp.org/wp-content/uploads/2024/11/AI-Survey-City-and-County-Final-2024.pdf.
[36] Richter, A. (2024), Navigating Generative AI in Government, https://businessofgovernment.org/report/navigating-generative-ai-government.
[69] Rivero del Paso, L. et al. (2023), Digital Solutions Guidelines for Public Financial Management, https://www.imf.org/en/Publications/TNM/Issues/2023/10/06/Digital-Solutions-Guidelines-for-Public-Financial-Management-537781.
[5] Ryseff, J., B. De Bruhl et S. Newberry (2024), The Root Causes of Failure for Artificial Intelligence Projects and How They Can Succeed, RAND, https://www.rand.org/pubs/research_reports/RRA2680-1.html.
[22] Ryseff, J. et A. Narayanan (2025), Why AI Projects Fail, https://www.rand.org/pubs/presentations/PTA2680-1.html.
[12] Salesforce (2024), 6 in 10 IT Workers Report Shortage of AI Skills in the Public Sector, https://www.salesforce.com/news/stories/public-sector-ai-statistics/.
[50] Samuleson, W. et W. Zeckhauser (1988), « Status quo bias in decision making », Journal of Risk and Uncertainty, vol. 1, pp. 7-59, https://scholar.harvard.edu/files/rzeckhauser/files/status_quo_bias_in_decision_making.pdf.
[53] SAS (2025), Slow uptake of AI in government hindering strategic goals, new research finds, https://www.sas.com/en_gb/news/press-releases/2024/september/slow-uptake-of-ai-in-government-hindering-strategic-goals.html.
[35] SAS (2020), AI in government: The path to adoption and deployment, https://www.sas.com/en_sa/insights/articles/analytics/ai-in-government.html.
[55] Shahab, S. et L. Lades (2021), « Sludge and transaction costs », Behaviorual Public Policy, vol. 1/22, https://doi.org/10.1017/bpp.2021.12.
[51] Shark, A. (2025), What the Rising Costs of AI Means for Government, https://statetechmagazine.com/article/2025/01/what-rising-costs-ai-means-government.
[59] Stanford HAI (2025), Artificial Intelligence Index Report 2025, https://hai-production.s3.amazonaws.com/files/hai_ai_index_report_2025.pdf.
[42] Sunstein, C. et J. Gaffe (2024), An Anatomy of Algorithm Aversion, Elsevier BV, https://doi.org/10.2139/ssrn.4865492.
[45] Teale, C. (2025), Public-sector concerns over AI are lessening, survey says, https://www.route-fifty.com/artificial-intelligence/2025/02/public-sector-concerns-over-ai-are-lessening-survey-says/403328.
[46] The Alan Turing Institute (2024), AI for bureaucratic productivity: Measuring the potential of AI to help automate 143 million UK government transactions, https://www.turing.ac.uk/news/publications/ai-bureaucratic-productivity-measuring-potential-ai-help-automate-143-million-uk.
[18] Trajkovski, G. (2024), « Bridging the public administration‐AI divide: A skills perspective », Public Administration and Development, vol. 44/5, pp. 412-426, https://doi.org/10.1002/pad.2061.
[33] Ubaldi, B. et al. (2019), State of the art in the use of emerging technologies in the public sector, Éditions OCDE, Paris, https://doi.org/10.1787/932780bc-en.
[6] UK Committee of Public Accounts (2025), Use of AI in Government, https://committees.parliament.uk/publications/47199/documents/244683/default/.
[68] UK DSIT (2025), Archaic tech sees public sector miss £45 billion annual savings, https://www.gov.uk/government/news/archaic-tech-sees-public-sector-miss-45-billion-annual-savings.
[21] UK DSIT (2025), State of digital government review, https://www.gov.uk/government/publications/state-of-digital-government-review/state-of-digital-government-review.
[13] UK NAO (2024), Use of artificial intelligence in government, National Audit Office, https://www.nao.org.uk/wp-content/uploads/2024/03/use-of-artificial-intelligence-in-government.pdf.
[40] US OMB (2025), Accelerating Federal Use of AI through Innovation, Governance, and Public Trust, https://www.whitehouse.gov/wp-content/uploads/2025/02/M-25-21-Accelerating-Federal-Use-of-AI-through-Innovation-Governance-and-Public-Trust.pdf.
[48] US OMB (2025), Driving Efficient Acquisition of Artificial Intelligence in Government, White House Office of Management and Bydget, https://www.whitehouse.gov/wp-content/uploads/2025/02/M-25-22-Driving-Efficient-Acquisition-of-Artificial-Intelligence-in-Government.pdf.
[26] van Noordt, C., R. Medaglia et L. Tangi (2023), « Policy initiatives for Artificial Intelligence-enabled government: An analysis of national strategies in Europe », Public Policy and Administration, https://doi.org/10.1177/09520767231198411.
[49] Varazzani, C. et al. (2023), Seven routes to experimentation in policymaking : A guide to applied behavioural science methods, Éditions OCDE, Paris, https://doi.org/10.1787/918b6a04-en.
[72] Waters, R. (2024), Meta under fire for ‘polluting’ open-source, https://www.ft.com/content/397c50d8-8796-4042-a814-0ac2c068361f.
Notes
Copier le lien de Notes← 1. Salesforce a mené une enquête doublement anonyme auprès de 600 professionnels de l’informatique (200 responsables de ce domaine et 400 contributeurs individuels) en Australie, en France, en Allemagne, au Royaume-Uni et aux États-Unis. Les répondants travaillent dans différents secteurs, comme la technologie, les services financiers, les médias et le divertissement, la production manufacturière, la vente au détail, les soins de santé, le secteur public, etc. L’enquête a été réalisée en décembre 2023 et janvier 2024 (2024[12]).
← 2. Source : Rapport du comité conjoint des comptes publics et de l’audit du Parlement australien (2025[28]). Les conclusions du Comité ne reflètent pas systématiquement le point de vue du gouvernement australien.
← 5. D’après la version américaine du site web de Microsoft (https://www.microsoft.com/en-us/microsoft-365/copilot) au 10 avril 2024. Prix d’un abonnement annuel.
← 7. Voir, par exemple, https://openai.com/global-affairs/introducing-chatgpt-gov et https://www.anthropic.com/news/expanding-access-to-claude-for-government.
← 8. Le recours à l’expression « open source » dans ce rapport ne signifie pas que ces modèles sont mis à disposition sous une licence open source approuvée par l’Open Source Initiative (OSI), une organisation sans but lucratif qui se veut la gardienne de la Définition de l’Open source (https://opensource.org/osd). L’OSI reproche à certaines entreprises de qualifier leur modèle d’open source alors qu’elles ne fournissant que les pondérations du modèle, sans aucun autre élément tel que les données d’entraînement, le code et les pratiques d’entraînement (Waters, 2024[72]). Pour certains, ces modèles devraient être qualifiés d’« open weight » (pondération libre d’accès) et non d’« open source » (source libre d’accès).
← 10. Ces renseignements sont fournis à l’OCDE par un pays dont le nom n’est pas communiqué. L’OCDE ne communique pas le nom du pays ou du projet en raison du caractère préliminaire des estimations et analyses.
← 11. Ces renseignements sont fournis à l’OCDE par un pays dont le nom n’est pas communiqué. L’OCDE ne communique pas le nom du pays ou du projet en raison du caractère préliminaire des estimations et analyses.
← 13. Chiffres communiqués à l’OCDE par un pays dont le nom n’est pas communiqué.