À l’avenir, les systèmes d’apprentissage adaptatif pourraient affiner leurs prédictions en temps réel en intégrant de nouvelles données ; ces systèmes peuvent jouer un rôle important dans la mise à jour dynamique des évaluations des risques, permettant ainsi aux organes chargés de l’intégrité de conserver une longueur d’avance sur l’évolution possible des menaces. L’IA – en particulier sa capacité à repérer et analyser des schémas dans des données non numériques – pourrait également ouvrir la voie à de nouvelles avancées dans la lutte contre la corruption. Combinée à des capteurs et à des technologies d’imagerie (satellites, drones, aéronefs capturant des images ou d’autres données, telles que des relevés thermiques ou des signaux radar), l’IA ouvre de nouvelles possibilités pour suivre et effectuer une analyse à grande échelle des schémas, permettant de comprendre les activités et les dynamiques liées à la corruption (Zinnbauer, 2025[105]).
À terme, la modélisation multi-agents, en simulant les interactions entre différentes entités (fonctionnaires, entreprises, etc.), pourrait aider à anticiper l’évolution des comportements de corruption et des mécanismes d’influence dans différents contextes (U4, 2025[106]). Cela permettrait de tester l’impact des politiques, lois et stratégies de lutte contre la corruption ou en faveur de l’intégrité avant leur mise en œuvre.
L’analyse des réseaux fondée sur l’IA pourrait également aider à obtenir une cartographie plus fine et plus complète des relations entre lobbyistes, responsables politiques, entreprises et d’autres acteurs, en mettant en évidence les modèles d’influence, les conflits d’intérêts ou les pratiques de « pantouflage ». L’intégration des technologies d’IA dans les politiques d’intégrité publique et de lutte contre la corruption est très prometteuse. Toutefois, pour s’assurer qu’elles seront utilisées de manière efficace et éthique, il convient de veiller avec la plus grande attention aux principales considérations relatives aux politiques publiques favorisant une adoption digne de confiance. Des travaux récents de l’OCDE (2024[89]) formulent trois recommandations à destination des acteurs de l’intégrité qui envisagent d’utiliser l’IA :
Commencer par intégrer l’IA générative dans des domaines ou processus à faible risque. Cette approche permet de renforcer les capacités dans des domaines où les conséquences d’erreurs éventuelles sont plus limitées — tant sur le plan financier que sur celui de la conformité — avant d’étendre son application à des tâches plus complexes et plus analytiques, nécessitant davantage de moyens financiers.
Anticiper les besoins informatiques, tant pour le pilotage que pour le déploiement à grande échelle. Réfléchir aux ressources de calcul, de stockage et de gestion des données qui pourraient être nécessaires et s’assurer que les décisions prises à un stade précoce ne compliquent pas excessivement les projets.
S’appuyer sur des données ouvertes ou produites en interne afin de mettre en évidence la valeur de l’IA et d’obtenir des résultats rapidement. Cette démarche, peu coûteuse, permet de démontrer plus rapidement les cas d’utilisation.
À mesure que les pouvoirs publics poursuivent leur exploration de l’IA, ils doivent mettre en place des mécanismes solides de transparence et de redevabilité afin de garantir que les décisions fondées sur l’IA sont non seulement exactes, mais aussi compréhensibles et dûment documentées. Par exemple, même si les systèmes d’IA peuvent fournir des éclairages précieux à partir de volumes massifs de données et que leur autonomie est amenée à croître à l’avenir, les décisions sensibles doivent continuer de relever de la responsabilité des êtres humains, afin de préserver l’équité, le jugement professionnel (ou le scepticisme) et, en définitive, la confiance du public. Les organes chargés de l’intégrité publique devraient veiller à ce que : le raisonnement qui sous-tend les décisions soit compréhensible à la fois par les experts et les profanes ; des mécanismes de recours et de contestation soient en place ; et, dans la mesure du possible, les processus d’IA soient explicables. Les éléments produits par l’IA doivent satisfaire à des exigences de documentation afin de garantir une piste d’audit fiable. Cela suppose notamment de se conformer aux normes en vigueur permettant de démontrer comment ces éléments ont été obtenus et évalués.
Le partage de connaissances est également un facteur clé de réussite pour la mise en œuvre et le déploiement à grande échelle des technologies d’IA dans les fonctions liées à l’intégrité publique. Les institutions devraient participer à la création de plateformes de partage des bonnes pratiques, des stratégies, des retours d’expériences, mais aussi des modèles, codes et données. Le partage de connaissances contribue à une meilleure compréhension de l’apport de l’IA dans ces fonctions et à l’élaboration de pratiques exemplaires pouvant être largement adoptées. On citera à cet égard des initiatives comme la communauté de pratique spécialisée dans les technologies et l’analytique de la Division de l’OCDE de lutte contre la corruption dans l’administration ou Tech Connect for Integrity4. Ces forums réunissent des professionnels des secteurs public et privé pour débattre des enjeux, explorer des solutions innovantes et élaborer des stratégies collectives destinées à encourager l’adoption de l’IA et d’autres technologies. Ils favorisent une meilleure circulation de l’information, la mutualisation des ressources, un apprentissage accéléré, ainsi qu’une élaboration et une mise en œuvre plus rapides des méthodologies et des solutions.
En s’appuyant sur les orientations existantes concernant l’utilisation éthique et responsable de l’IA, les pouvoirs publics gagneraient à aller au-delà des déclarations générales en fournissant des orientations et des cadres pratiques plus précis facilitant la mise en œuvre des technologies d’IA. Celles-ci pourraient prendre la forme d’instructions détaillées, d’études de cas ou de modèles adaptables selon les besoins spécifiques des institutions. Ces orientations pourraient aussi porter sur l’identification et l’atténuation des biais dans les données, l’utilisation de techniques d’IA explicables, la transparence des processus décisionnels et l’accès à des voies de recours.
Une base de données unifiée et interopérable est essentielle à une utilisation efficace de l’IA. Les pouvoirs publics doivent rationaliser la gestion de leurs données afin de garantir l’interopérabilité et l’intégration transparentes des bases de données et des systèmes. Cela passe par la création de formats de données normalisés, la mise en place de cadres de gouvernance des données robustes et des investissements dans des infrastructures favorisant l’interopérabilité des données. En encourageant la normalisation et l’intégration des données, ainsi que des politiques en faveur d’un partage et d’un croisement sécurisés des données, les pouvoirs publics peuvent renforcer la capacité des systèmes d’IA à analyser les données de manière exhaustive, à repérer des schémas et à fournir des informations exploitables à l’appui de l’intégrité publique.