L’intelligence artificielle est utilisée par divers organismes publics chargés de la gouvernance des risques critiques comme la gestion des catastrophes et le maintien de l’ordre, ainsi que la lutte contre le terrorisme, l’administration des douanes et la gestion des frontières qui constituent des domaines transversaux. Les technologies fondées sur l’IA leur permettent d’accroître l’ampleur, la rapidité et la précision de leurs capacités d’anticipation analytique, de surveillance et de suivi en temps réel ainsi que de gestion des processus administratifs, tout en réduisant les dépenses de fonctionnement. Elles peuvent ainsi contribuer à renforcer les capacités d’enquête et de gestion de crise, à optimiser l’allocation des ressources et à réduire les délais de réaction.
L’utilisation de l’IA dans ces domaines ayant potentiellement des répercussions notables, en particulier en matière d’action répressive, les entités qui y recourent sont considérées comme des utilisateurs finaux à haut risque (OCDE, 2020[253]) et doivent tenir compte de considérations supplémentaires lorsqu’elles emploient ces technologies au service de l’intérêt général ou de la sécurité publique. Parmi l’ensemble des institutions publiques, la police est celle à laquelle les citoyens déclarent accorder la plus grande confiance (OCDE, 2024[46]). Il est donc essentiel de préserver cette confiance en veillant à un usage responsable et fiable de l’IA propre à minorer les enjeux éthiques et les risques qu’elle pourrait faire peser sur les droits individuels. Cela suppose une vigilance particulière quant à l’origine des données sous-jacentes et la manière dont elles sont obtenues, conservées et exploitées (OCDE, 2020[254] ; 2019[191] ; 2022[255]). Des enseignements peuvent être tirés des expériences passées et comme exposé ci-après, certains États ont déjà renforcé les attentes en matière de transparence vis-à-vis des institutions publiques qui utilisent l’IA.