L’intelligence artificielle (IA) offre des possibilités considérables aux administrations publiques. Elle peut permettre d’automatiser et de personnaliser les services publics, d’améliorer la prise de décision, de détecter les tentatives de fraude et d’enrichir le travail et l’apprentissage des agents publics. Encore faut-il gérer les risques liés à cette technologie : l’existence de données biaisées au sein des systèmes d’IA peut entraîner des décisions préjudiciables ; le manque de transparence entrave la redevabilité ; et une confiance aveugle dans les outils d’IA peut aggraver les fractures numériques et propager des erreurs, ce qui nourrit la défiance des citoyens. Les arbitrages à effectuer doivent tenir compte des défis propres au secteur public : celui-ci est en retard dans l’adoption des outils d’IA par rapport à certaines entreprises privées du fait d’un déficit de compétences, de l’incompatibilité avec certains systèmes informatiques en place, d’un manque de données, de budgets serrés et d’impératifs plus stricts de respect de la vie privée, de transparence et de représentativité.
Gouverner avec l’intelligence artificielle
Introduction
Chiffres clés
200
cas d’utilisation de l’IA analysés dans ce rapport
57 %
des cas d’utilisation visent à automatiser, rationaliser ou personnaliser des processus et des services – c’est l’objectif le plus couramment poursuivi par les administrations publiques
15 %
des pays étaient dotés, en 2023, d’un cadre d’investissement dans l’IA, ce qui peut être utile face à des défis communs
L’utilisation et la maturité de l’IA varient selon les fonctions de l’État et selon les pays
Le recours à l’IA au sein des administrations publiques est relativement récent, avec du retard par rapport à certaines entreprises privées. Les premières données disponibles semblent indiquer que, dans la sphère publique, l’IA est surtout utilisée dans des domaines tels que les services publics, la participation civique et la justice – domaines à forts volumes de transactions et impliquant des interactions directes avec les citoyens. Dans des domaines tels que l’évaluation des politiques publiques, l’administration de l’impôt et la gestion de la fonction publique, l’adoption de l’IA est plus limitée.
Le recours à l’IA au sein du secteur public peut apporter des bénéfices significatifs, mais il s’accompagne de risques pour les sociétés et les économies
D’après le rapport, 57 % des cas d’utilisation visent à automatiser, rationaliser ou personnaliser des services ; 45 % visent à améliorer la prise de décision, l’analyse des situations ou les prévisions ; et 30 % visent à renforcer la redevabilité et la détection des anomalies. Seuls 4 % permettent aux parties prenantes externes de recourir aux systèmes d’IA du secteur public à leurs propres fins, comme par exemple DidaktorikaAI en Grèce, une bibliothèque de 50 000 publications alimentée par l'IA. Contrairement aux attentes, l'IA est davantage utilisée pour des fonctions analytiques que pour des tâches routinières. L’analyse montre que tous les cas d’utilisation répertoriés présentent des risques si l’IA n’est pas suffisamment bien gérée, notamment des risques éthiques (ex. violations des droits), des risques opérationnels (ex. cybermenaces), l'aggravation de la fracture numérique et la résistance du public à l'IA gouvernementale.
Les administrations désireuses d’adopter l’IA doivent relever tout un éventail de défis
En raison des difficultés que soulève le déploiement à plus grande échelle des solutions d’IA couronnées de succès, de nombreuses initiatives en restent à leur phase pilote dans le secteur public. Cette situation s’explique en grande partie par l’absence de cadres de mesure de l’impact qui permettraient de prouver le retour sur investissement des solutions d’IA, et donc d’en faire une priorité d’investissement. De plus, le déficit de compétences et les obstacles à l’accessibilité et au partage de données de qualité constituent des problèmes courants au sein de la sphère publique. En outre, si les pays sont de plus en plus nombreux à se doter de stratégies nationales en matière d’IA, leur mise en œuvre se heurte à un manque de directives concrètes. Ces obstacles accroissent l’aversion pour le risque et limitent l’innovation. Enfin, le coût des solutions d’IA, le caractère obsolète de l’arsenal législatif et réglementaire et les problèmes de compatibilité avec les systèmes informatiques en place constituent eux aussi des entraves.
Que peuvent faire les pouvoirs publics ?
Ces leviers sont les éléments constitutifs nécessaires à la bonne mise en œuvre de l’IA dans la sphère publique. Grâce à eux, des agents publics qualifiés peuvent assurer une conception et un déploiement dignes de confiance des solutions d’IA, ce qui permet aux institutions d’exploiter pleinement le potentiel de cet outil. Le rapport évoque sept grands leviers : la gouvernance, les données, l’infrastructure numérique, les compétences, l’investissement, les marchés publics et les partenariats avec des acteurs non gouvernementaux.
Des garde-fous garantissent une utilisation digne de confiance de l’IA dans le secteur public par le biais des politiques, de la transparence et du contrôle. Ils permettent de gérer les risques, d’assurer le respect du droit et des valeurs de la société et de renforcer la confiance de la population. Toutefois, il n’est pas nécessaire de recourir à l’ensemble des garde-fous pour chaque cas d’utilisation. Pour éviter de nourrir l’aversion pour le risque et l’inaction, les acteurs publics doivent adopter des garde-fous adaptés au contexte, proportionnés et fondés sur les risques.
Les pays doivent concevoir des systèmes d’IA qui tiennent compte des besoins de l’ensemble des acteurs. Cela implique d’adopter des démarches adaptables et centrées sur l’usager et de collaborer activement avec les principales parties prenantes — qu’il s’agisse du grand public, de la société civile, des entreprises ou des autres pays —, au moyen de mécanismes ouverts et transparents.
Nul ne sait quelles seront les applications futures de l’IA. Il est nécessaire que les pays se dotent de stratégies agiles et adaptables et de cadres souples en la matière. Détecter de façon précoce les signaux faibles permet d’agir en temps voulu, avant que les tendances ne s’ancrent et ne deviennent difficiles à inverser.
Le Cadre de l'OCDE pour une IA digne de confiance dans l'administration fournit des orientations pour la mise en œuvre de ces recommandations.
Publications associées
-
27 février 202667 Pages -
Note de synthèse
Comment maîtriser les risques tout en soutenant la croissance
17 novembre 20258 Pages -
29 septembre 202340 Pages -
8 avril 2022449 Pages
-
29 juillet 202134 Pages -
Document de travail
L’élaboration de règles exécutables par les humains et par les machines
12 octobre 2020136 Pages