Le projet « l’IA et les compétences de demain » du Centre pour la recherche et l’innovation de l’OCDE présente un cadre de mesure systématique des capacités de l’IA et de la robotique et de comparaison aux compétences des êtres humains. Le présent chapitre décrit la méthode suivie par l’OCDE pour élaborer la version bêta des indicateurs présentée dans ce volume et la manière dont ils peuvent donner aux responsables des politiques des éclairages clairs et fondés sur des données probantes sur les évolutions de l’IA et leurs incidences sur la société, le travail et l’éducation. L’OCDE indique également que les indicateurs constituent un cadre de mesure des progrès réalisés vers une intelligence artificielle générale prudent et fondé sur des principes, qui donne aux décideurs politiques les outils dont ils ont besoin pour vérifier de manière indépendante ce qu’affirment les leaders et les chercheurs du domaine des technologies concernant les progrès réalisés par l’IA.
Présentation des indicateurs de l’OCDE sur les capacités de l’IA
2. Concevoir un cadre de mesure des capacités de l’IA
Copier le lien de 2. Concevoir un cadre de mesure des capacités de l’IADescription
L’IA a tellement progressé que ses capacités nous échappent
Copier le lien de L’IA a tellement progressé que ses capacités nous échappentSelon les sources, l’intelligence artificielle (IA) a vocation soit à sauver le monde, soit à le détruire. Dans un paysage dominé par le battage publicitaire et la peur, l’absence d’informations claires, fiables et nuancées est frappante. Pas même les développeurs en IA ne comprennent les capacités actuelles des systèmes d’IA, ni la vitesse à laquelle elles progressent. En tant qu’organe international indépendant et respecté, l’OCDE est bien placée pour combler ce manque de connaissances. Forte de son expérience en matière d’évaluations comparatives, d’une vaste collaboration avec d’éminents informaticiens et ingénieurs et de sa perspective internationale, l’OCDE a mis au point une méthodologie unique pour apporter un éclairage rigoureux et factuel sur les performances réelles de l’IA. Ce cadre offre aux décideurs les éléments dont ils ont urgemment besoin pour s’y retrouver dans un environnement technologique toujours plus complexe et pour concevoir en connaissance de cause des stratégies d’avenir.
Depuis le lancement de ChatGPT en 2022, l’IA et la robotique ont connu des avancées rapides et les responsables publics partout dans le monde reconnaissent qu’il est nécessaire d’évaluer leurs capacités. La loi de l’Union européenne sur l’intelligence artificielle (UE, 2024[1]), par exemple, impose de procéder à un suivi régulier. La recommandation du Conseil de l’OCDE sur l’intelligence artificielle (OCDE, 2024[2]) et le Sommet de 2025 pour l’action sur l’intelligence artificielle (Élysée.fr, 2025[3]) tenu à Paris mettent l’accent sur l’importance de comprendre l’influence de l’IA sur le marché du travail.
Un fossé persiste pourtant entre cette attention accrue et l’absence de cadre systématique mesurant les capacités de l’IA de manière exhaustive, compréhensible et pertinente pour les pouvoirs publics. Pour combler ce fossé, l’OCDE a élaboré un cadre de mesure des capacités de l’IA et présenté la version bêta des indicateurs sur les capacités de l’IA (voir le Graphique 2.1 pour un aperçu du processus d’élaboration de ces indicateurs). Ces indicateurs sont conçus pour être :
1. Compréhensibles – exposant de manière simple les points forts et les limites de l’IA
2. Pertinents pour les pouvoirs publics – donnant à entrevoir les conséquences de l’IA sur l’enseignement, l’emploi et l’économie
3. Exhaustifs – couvrant tous les aspects essentiels des capacités de l’IA
4. Réactifs – suivant la progression de l’IA dans le temps grâce à des mises à jour systématiques
Mettre en lien les capacités de l’IA et les compétences humaines permet aux décideurs de jauger le rôle que peut jouer l’IA dans l’enseignement, le travail et la vie quotidienne. Les cadres existants d’évaluation des capacités de l’IA, comme MLCommons (MLCommons, 2025[4]) et l’Indice de l’IA de l’Université de Stanford (MLCommons, 2025[4]), analysent leurs capacités uniquement en termes de performances par rapport à des références, sans les comparer aux compétences humaines. Par elles-mêmes, ces performances évaluées au regard de références sont difficiles à comprendre pour les non spécialistes de l’IA, et même les chercheurs en IA ne savent pas exactement ce qu’il faut en conclure quant à la capacité d’un système d’IA d’accomplir des tâches dans des situations concrètes.
Dans une analyse sur les limites des références actuelles en matière d’IA, les auteurs de l’édition 2025 de l’Indice de l’IA indiquent que pour évaluer correctement les capacités des systèmes d’IA, il faut procéder à des évaluations plus rigoureuses et plus complètes. Le cadre de l’OCDE est unique en son genre en cela qu’il s’efforce de comparer les capacités de l’IA à l’ensemble des compétences humaines utilisées sur le marché du travail, tout en reconnaissant que bien souvent, il n’existe pas encore de références en matière d’IA adéquates en ce qui concerne les niveaux avancés. Les indicateurs constituent un cadre conceptuel permettant de recenser ou d’élaborer des tests susceptibles de fournir une évaluation systématique des capacités de l’IA dans l’ensemble des domaines de compétences humaines utiles à la vie quotidienne et à l’emploi. Les cadres d’évaluation des performances de l’IA qui sont fondés sur des références qui ne prennent pas les compétences humaines comme valeur de référence risquent d’être vite dépassés par les évolutions rapides de l’IA. Un autre avantage de fonder un cadre d’évaluation des capacités de l’IA sur les compétences humaines est le fait que celles-ci sont relativement constantes dans le temps, ce qui signifie que le cadre restera stable et informatif malgré les progrès rapides de l’IA, jusqu’au moment où les performances de l’IA dépasseront véritablement l’ensemble des performances humaines.
L’indice économique élaboré par l’entreprise Anthropic (Handa et al., 2025[5]) est fondé sur une approche novatrice de l’analyse des incidences des évolutions de l’IA et met en lien les capacités de Claude.ia et des tâches réalisées par les êtres humains en analysant des millions d’interactions entre les grands modèles de langage de Claude.ia et les utilisateurs au cours desquelles des tâches pouvant être reliées à celles figurant dans O*NET ont été exécutées. Néanmoins, cette approche n’a pas pour objectif de comparer les performances de l’IA au champ complet des compétences humaines utilisées dans le monde du travail, étant donné qu’elle est limitée à des analyses d’interactions avec des grands modèles de langage intervenues dans des chats. L’approche de l’OCDE consistant à tirer parti de ses indicateurs sur les capacités de l’IA pour analyser l’impact des évolutions de l’IA sur les professions est décrite au Chapitre 4 du présent rapport.
Consciente des limites de son cadre actuel, l’OCDE présente ces indicateurs dans leur version bêta et lance un appel à la collaboration avec des experts de l’IA et de la psychologie humaine. Les évaluations des systèmes d’IA présentées ci-dessous ont été finalisées en novembre 2024 et témoignent donc de l’état de la technique à cette période. Les ajustements futurs renforceront les indicateurs en tant qu’outil précis et réactif pour suivre les évolutions de l’IA.
Le présent chapitre expose les raisons pour lesquelles les indicateurs ont été élaborés et la méthodologie suivie dans le cadre de leur développement (voir le Graphique 2.1 pour un aperçu du processus d’élaboration des indicateurs). Il reconnaît aussi les limites de la version bêta des échelles ayant été mises en évidence pendant le processus d’examen par les pairs. On trouvera une analyse plus complète de la méthodologie suivie dans le volume technique (OCDE, 2025[6]) publié en parallèle à ce rapport. Ce chapitre s’achève sur les manières dont les décideurs peuvent utiliser les indicateurs pour contribuer à répondre aux questions soulevées par l’évolution rapide de l’IA.
Le Chapitre 2 présente les neuf échelles, les descripteurs de performance correspondant à chacun des niveaux et l’évaluation de l’état de la technique en matière de systèmes d’IA. En outre, les éléments importants à mesurer dans les différents domaines et les données disponibles sur les performances actuelles de l’IA sont passés en revue pour chaque indicateur.
Le Chapitre 3 donne des exemples plus spécifiques de la façon dont les chercheurs et les décideurs peuvent utiliser les échelles pour fournir une analyse factuelle des répercussions de l’IA, notamment sur la main-d’œuvre et les systèmes éducatifs.
Méthodologie : une approche novatrice et unique
Copier le lien de Méthodologie : une approche novatrice et uniqueDes tâches aux capacités : une nouvelle approche pour évaluer l’IA
Comprendre les conséquences de l’IA sur la société ne se résume pas à évaluer si elle est capable d’effectuer tel travail ou telle tâche. Bien que les analyses fondées sur les tâches soient cruciales pour l’économie du travail, elles manquent souvent de clarté et de cohérence quand il s’agit d’IA ; la plupart des tâches humaines impliquent en effet des compétences multiples et interdépendantes.
Au cours des dernières années, les publications économiques ont cessé d’analyser l’impact de l’IA sur le travail en se fondant sur les professions pour se concentrer sur les tâches, considérant que les professions reposent sur des ensembles de tâches qui seront probablement affectées de manière très différente par une technique d’IA ou une autre technologie donnée. Cette approche fondée sur les tâches a constitué une innovation majeure dans le domaine de la recherche sur l’économie du travail (Autor, Levy et Murnane, 2023[7])1. Néanmoins, elle ne fournit pas de cadre clair permettant de décrire les évolutions de l’IA. Premièrement, les taxonomies de tâches sont difficiles à comprendre parce qu’il existe des milliers ou des dizaines de milliers de tâches distinctes dans l’économie moderne tandis que le nombre de capacités de base est relativement restreint. Deuxièmement, chaque tâche fait généralement appel à de multiples compétences qui peuvent être affectées de manière très différente par une technique d’IA ou une autre technologie, de sorte qu’elles ne fournissent pas un cadre clair permettant de rendre compte des principales avancées ou limites de l’IA.
Pour sa part, l’OCDE adopte un cadre fondé sur les capacités, qui met l’accent non plus sur des tâches prises en compte de manière isolée, mais sur des compétences humaines fondamentales2 comme la faculté de raisonner, le langage, les interactions sociales et les aptitudes psychomotrices. Cette approche, qui repose sur la psychologie humaine, offre une perspective structurée et de haut niveau sur l’évolution de l’IA. Afin de montrer les progrès réalisés par l’IA dans toute la gamme des compétences humaines, l’OCDE a mis au point neuf indicateurs sur les capacités de l’IA, présentés dans le Graphique 2.2.
Graphique 2.1. Élaboration des indicateurs de l’OCDE sur les capacités de l’IA
Copier le lien de Graphique 2.1. Élaboration des indicateurs de l’OCDE sur les capacités de l’IA
Graphique 2.2. Indicateurs de l’OCDE sur les capacités de l’IA
Copier le lien de Graphique 2.2. Indicateurs de l’OCDE sur les capacités de l’IA
Conception et élaboration des indicateurs
Copier le lien de Conception et élaboration des indicateursÉlaboration des échelles à cinq niveaux
L’OCDE a collaboré avec un noyau dur de 30 informaticiens, psychologues et spécialistes de l’évaluation pour élaborer des indicateurs exhaustifs qui appréhendent la progression de l’IA depuis des tâches simples jusqu’à des tâches complexes, distinguent les avancées majeures d’ordre qualitatif et livrent une véritable compréhension des capacités de l’IA en comparaison avec les compétences humaines.
L’OCDE a mis au point des échelles à cinq niveaux permettant de représenter la difficulté croissante que représente la réalisation des tâches pour les systèmes d’IA (voir le Graphique 2.3). Ces échelles visent à englober tous les types de systèmes d’IA et de robotique. Dans la version actuelle des échelles, les systèmes d’IA symboliques, les systèmes neuro-symboliques, les grands modèles de langage, les agents sociaux et les systèmes de robotique sont tous examinés tels qu’ils apparaissent dans les différents sous-domaines de l’IA travaillant sur les différentes capacités. Sur chaque échelle, le niveau 1 correspond aux difficultés surmontées par l’IA (par exemple, les capacités de recherche de Google Search), tandis que le niveau 5 représente une performance qui simule tous les aspects des compétences humaines correspondantes. La principale raison ayant motivé l’OCDE à élaborer ces échelles à cinq niveaux était de faire connaître la progression des capacités de l’IA d’une manière qui soit compréhensible pour les personnes qui n’appartiennent pas à ce domaine. Chaque échelle comprend généralement plusieurs dimensions qui reflètent les variations de difficulté pour l’IA. Ces niveaux se démarquent les uns des autres par des différences qualitatives claires, et non uniquement par des améliorations graduelles dans la performance. Chaque indicateur renseigne sur le niveau de performance actuellement atteint par les systèmes d’IA. Dans l’idéal, chaque échelle s’accompagnerait de tests formels affichant des résultats comparables pour les systèmes d’IA et les humains, mais ce type de tests n’existe pas encore dans de nombreux domaines. Néanmoins, l’OCDE s’appuie sur les données disponibles et fait appel au jugement des experts pour combler les lacunes. Ces données peuvent inclure des tests formels, mais aussi des comparaisons ou des analyses des performances atteintes par les différents systèmes d’IA. Les contributions des experts servent aussi à évaluer de manière critique la pertinence et l’interprétation des tests existants, ce qui permet de s’assurer du bien-fondé des allégations de performance. Si des évaluations standardisées des êtres humains, comme le PISA et le PIAAC, ont parfois été utilisées pour évaluer l’IA, leur principale utilité est de servir d’inspiration dans la conception de nouveaux tests de l’IA mieux à même de traduire l’ensemble des compétences humaines utiles aux systèmes d’IA.
De futures extensions des échelles pourraient inclure des aspects des capacités de l’IA qui sortent du périmètre des compétences humaines et qui peuvent donc être qualifiés d’aspects qualitativement surhumains. Cela contraste avec les performances quantitativement surhumaines, là où l’IA est plus performante que les êtres humains en termes de vitesse, de précision ou de couverture des données, tout en accomplissant des tâches que les êtres humains sont également capables de réaliser. Le concept de capacités surhumaines n’est pas propre à l’IA. Par le passé, des innovations comme le microscope, la calculatrice ou les outils électriques ont permis aux humains d’accomplir des tâches qui dépassaient largement leurs limites naturelles. Cependant, l’IA soulève de nouvelles questions au sujet des capacités qui nécessitent un comportement intelligent plutôt qu’un simple avantage mécanique ou de calcul.
Graphique 2.3. Vue d’ensemble des cinq niveaux d’IA
Copier le lien de Graphique 2.3. Vue d’ensemble des cinq niveaux d’IA
Validation des indicateurs
Le processus s’est déroulé sur cinq ans, avec en point d’orgue un examen par les pairs fin 2024. Cet examen structuré a impliqué 25 chercheurs dans les domaines de l’IA, de la psychologie et de l’enseignement, qui ont été divisés en deux catégories :
1. Examinateurs généraux – chargés d’évaluer l’exhaustivité du cadre
2. Examinateurs spécialisés – chargés d’évaluer les échelles de leurs domaines d’expertise
Les retours d’information fournis par les experts ont donné lieu à des ajustements, pour arriver à l’actuelle version bêta. Les futures versions comprendront des données supplémentaires, standardiseront les méthodologies de mesure et amélioreront la pertinence des politiques publiques. L’OCDE espère obtenir d’autres retours de chercheurs en IA, de psychologues, de spécialistes de l’enseignement et d’économistes pour affiner encore les indicateurs bêta.
Mise en lien des mesures de performance de l’IA
L’objectif derrière la mise en lien des mesures de performance de l’IA avec les échelles est de déterminer sur chaque échelle le niveau le plus élevé où l’IA montre des performances solides et fiables à un instant T. Étant donné que les niveaux des échelles sont classés par difficulté, lorsque l’IA est placée à un niveau donné, elle est en mesure de simuler tous les aspects liés à une capacité d’une manière robuste et fiable jusqu’à ce niveau. En raison de contraintes de conception, certains de ces aspects peuvent toutefois faire défaut à un système d’IA spécifique. Les échelles reflètent l’état actuel des connaissances en général, et non les limites d’un système en particulier.
Certaines échelles montrent que des capacités de niveau inférieur dans des applications limitées peuvent être difficiles à intégrer dans un système aux performances généralisées. Les niveaux les plus bas correspondent à des problèmes résolus pour lesquels l’IA est souvent quantitativement surhumaine – c’est-à-dire qu’elle accomplit les tâches plus vite et avec une plus grande exactitude que les humains. Les niveaux moyens ont souvent des tests d’évaluation comparative standard, alors que les niveaux supérieurs couvrent des aspects émergents ou non évalués des capacités qui continuent de poser des difficultés aux systèmes d’IA actuels. Les experts ont fourni des estimations pour ces niveaux supérieurs même en l’absence de mesures de performance solides.
Limites
Copier le lien de LimitesUn défi majeur de l’évaluation de l’IA réside dans la disponibilité inégale des outils de mesure des différentes capacités. Tandis que des domaines comme le langage ou la vision bénéficient de décennies d’évaluations comparatives, d’autres – tels que les interactions sociales et la créativité – manquent d’évaluations formelles. L’avis des experts contribue à combler ces lacunes.
Bien qu’il n’existe pas encore de cadre d’évaluation entièrement systématique de l’IA, cette approche collecte les données actuelles et met en évidence les domaines clés de son évolution future. Les indicateurs sont proposés dans une version bêta, avec comme objectif de les affiner grâce à la collaboration de chercheurs et d’experts.
La version bêta des indicateurs sur les capacités de l’IA constitue une base précieuse permettant de comprendre ce que l’IA est capable de faire et ce qu’elle n’est pas capable de faire. Toutefois, pour faire progresser ce cadre, il faudra une collaboration plus approfondie avec une communauté d’experts plus large. Les principales étapes à venir sont les suivantes :
Accroître la couverture : inclure des capacités et indicateurs supplémentaires pour dresser un tableau plus complet de l’éventail de l’IA
Affiner la structure : garantir la cohérence des valeurs de référence, tenir compte des systèmes multi-agents et gérer les chevauchements entre capacités
Préciser les performances humaines de référence : faire preuve de plus de cohérence – ou de différentiation intentionnelle –, nécessaire pour refléter les contrastes significatifs dans la difficulté éprouvée par l’IA et par les humains, puisque les échelles comparent les performances de l’IA à des performances humaines de niveau tantôt moyen, tantôt expert
Permettre des mises à jour dynamiques : créer une procédure prévoyant des examens réguliers et tenir à jour un référentiel3 des mesures de performance afin de rester en phase avec les progrès rapides de l’IA.
En mettant en regard les capacités de l’IA et les compétences humaines essentielles, les indicateurs de l’OCDE fournissent un outil transparent et pertinent pour les pouvoirs publics permettant d’évaluer les conséquences de l’IA sur la société, en particulier dans des domaines comme le travail ou l’enseignement. Bien qu’il continue d’évoluer, ce cadre constitue une étape clé en vue de comprendre les progrès de l’IA de manière plus systématique et sur la base de données probantes. On trouvera une analyse plus complète de la méthodologie suivie pour élaborer les indicateurs et des limites de celle-ci dans le volume technique publié en parallèle à ce rapport (OCDE, 2025[6]).
Étapes suivantes
Copier le lien de Étapes suivantesAprès que la version bêta des indicateurs aura été suffisamment améliorée, l’OCDE entend mener des activités supplémentaires permettant de garantir que ces indicateurs restent en phase avec les évolutions de l’IA et d’aider les chercheurs en IA à concevoir et à mettre en œuvre des tests valides et informatifs des capacités de l’IA.
Il s’agit des activités suivantes :
1. Mises à jour régulières
L’OCDE va mettre en place un cycle de mises à jour régulières prévoyant le suivi de l’amélioration des résultats de l’IA dans les tests de référence existants liés aux échelles, le suivi des publications scientifiques en vue de recenser les nouveaux tests de référence qui devraient être liés aux échelles, et la synthèse des résultats dans des énoncés sur les performances actuelles de l’IA au regard des échelles. Les mises à jour seront validées par le réseau de l’OCDE de chercheurs et de psychologues spécialisés dans l’IA. L’OCDE prévoit de mettre au point la méthodologie utilisée pour les mises à jour jusqu’à la fin de l’année 2025, et de procéder à la première mise à jour au début de l’année 2026.
2. Anticiper les percées de l’IA
Jusqu’à présent, l’OCDE a concentré ses efforts sur l’élaboration de descriptions des capacités actuelles de l’IA attestées dans les publications. Afin d’accroître l’utilité potentielle des indicateurs pour comprendre les incidences de l’IA, l’OCDE élaborera une approche visant à anticiper les percées potentielles en demandant à des groupes d’experts d’analyser les principaux plans de recherche dans ce domaine afin de décrire l’ampleur des percées potentielles au regard des indicateurs. L’objectif est d’analyser les recherches en cours en rapport avec les capacités qui font actuellement défaut à l’IA afin de comprendre quelles sont les capacités susceptibles d’être à l’origine de percées dans les performances de l’IA. L’OCDE entend mener en 2026 les premiers travaux visant à établir un lien entre les indicateurs et les percées de l’IA.
3. Enquête auprès des experts
En complément des appréciations fournies par son réseau d’experts, l’OCDE mettra en place une enquête périodique formelle auprès des experts afin d’examiner les informations et de fournir des renseignements en rapport avec les principales déclarations concernant les capacités de l’IA, sur le modèle du groupe d’experts économiques de l’Université de Chicago (Clark Center for Global Markets, 2025[8]). Cette enquête permettra de faire régulièrement le point sur les aspects des capacités de l’IA qui ne sont pas encore évalués par les tests de référence publics. Cette enquête donnera des indications rapides quant au lancement de nouveaux travaux sur des capacités d’IA qui étaient jusqu’à présent trop difficiles à appréhender. L’OCDE prévoit de recruter des experts pour constituer le groupe au cours de l’année 2025, dans l’optique de lancer le groupe d’experts en 2026, qui se réunirait tous les mois, comme celui de l’Université de Chicago.
4. Nouveaux tests de référence et critères
Dans l’optique de fournir des renseignements plus complets sur les capacités de l’IA en pleine évolution, l’OCDE va recenser les niveaux des échelles pour lesquels les tests de référence et les critères sont actuellement inadaptés. Ces niveaux refléteront les domaines qu’il convient de surveiller afin d’identifier quand de nouvelles capacités d’IA sont sur le point de connaître un essor substantiel. L’objectif à long terme est de mettre au point un nouveau programme de tests de référence qui puisse fournir des résultats indépendants et fiables concernant les niveaux de capacités d’IA qui font défaut, afin de fournir au public des informations adéquates sur les évolutions de l’IA. L’OCDE prévoit de commencer par organiser un atelier en 2026 pour discuter des niveaux pour lesquels de nouveaux tests ou critères pourraient être utiles et identifier les méthodes d’évaluation disponibles qui pourraient être utilisées. Cette étape débouchera sur un premier travail d’élaboration de l’évaluation en 2027.
Rôle des indicateurs sur les capacités de l’IA
Copier le lien de Rôle des indicateurs sur les capacités de l’IALes indicateurs de l’OCDE fournissent aux décideurs un outil fondé sur des éléments concrets pour évaluer les progrès de l’IA dans des termes qui soient accessibles à un public non technique. Ce savoir est particulièrement précieux pour mettre en œuvre des initiatives majeures comme la législation de l’Union européenne ou la recommandation de l’OCDE sur l’intelligence artificielle.
Utilisation des indicateurs pour anticiper les conséquences de l’IA sur l’enseignement, le travail et la société
À mesure que les systèmes d’IA évoluent, leurs capacités croissantes soulèvent de nouvelles questions sur la confiance qu’il convient de leur accorder et sur la pertinence de les déployer ou, au contraire, de les limiter. Les indicateurs aident à déterminer quels niveaux de performance de l’IA peuvent susciter des inquiétudes en lien avec l’éthique ou la sécurité, par exemple la prise de décisions sans obligation de rendre compte et l’autonomie dans des domaines à forts enjeux comme la guerre ou les soins de santé.
Au-delà de l’éthique, les indicateurs fournissent un outil pratique pour analyser la manière dont les capacités de l’IA correspondent aux exigences du travail humain. Cela permet de définir les professions les plus exposées à l’automatisation et d’anticiper des conséquences économiques plus larges. Bien que les indicateurs ne prédisent pas si l’IA remplacera les travailleurs humains, ils pointent les endroits où elle pourrait techniquement accomplir des tâches clés. Cela appelle une analyse approfondie des freins économiques, réglementaires ou éthiques à son adoption.
Dans le secteur éducatif, les indicateurs laissent entrevoir à la fois l’utilisation que le corps enseignant pourra faire de l’IA et les compétences évolutives dont les élèves auront besoin. À mesure que l’IA devient capable de réaliser des tâches plus complexes, les systèmes éducatifs doivent déterminer quelles compétences restent indispensables aux êtres humains, que ce soit pour des raisons pratiques, cognitives ou intrinsèques, et comment préparer les générations futures à s’épanouir aux côtés de systèmes d’IA de plus en plus puissants.
Un cadre pour définir et mesurer l’intelligence artificielle générale
Les indicateurs de l’OCDE sur les capacités de l’IA offrent un cadre potentiel pour définir et mesurer l’intelligence artificielle générale (IAG), qui est généralement comprise comme une IA présentant l’éventail complet des aptitudes cognitives et sociales humaines. Si beaucoup pensent que l’IAG est une perspective encore lointaine, certains leaders technologiques et chercheurs alertent sur son arrivée imminente et sur ses possibles risques existentiels. Dans ce contexte, il devient urgent de disposer d’outils de surveillance clairs et fondés sur des éléments concrets.
Les tentatives actuelles de définition de l’AGI surhumaine s’appuient sur des descriptions des compétences humaines qui sont abstraites et difficiles à mesurer dans la pratique. Par exemple, Google DeepMind définit un système d’intelligence artificielle générale surhumaine comme « plus performant que 100 % des êtres humains » dans toutes les tâches (Morris et al., 2024[9]). En revanche, les indicateurs de l’OCDE sur les capacités de l’IA fournissent un cadre permettant de comparer systématiquement les évolutions de l’IA avec les performances des humains dans l’ensemble des domaines de compétence des êtres humains et de fournir des descriptions judicieuses des capacités et des limites de l’IA qui ne requièrent pas des décideurs politiques qu’ils interprètent directement les résultats des tests de l’IA.
Ceci est particulièrement important dans la mesure où les capacités de l’IA augmenteront vraisemblablement à des rythmes différents selon les domaines. L’évolution des capacités des grands modèles de langage a été décrite comme une « frontière en dents de scie » (« jagged frontier » (Dell’Acqua et al., 2023[10])) en raison du niveau relativement avancé des capacités de l’IA dans certains domaines (par exemple, l’étendue de la connaissance factuelle) et très limité dans d’autres (par exemple, le raisonnement formel). L’IA devrait continuer de progresser de cette manière jusqu’à ce qu’on parvienne à d’éventuels systèmes d’intelligence artificielle générale. Le fait de pouvoir suivre les forces et les lacunes dans les domaines liés aux compétences humaines sera essentiel pour cartographier les implications sociales, économiques et politiques des progrès de l’IA.
Les indicateurs permettent aux décideurs de suivre les progrès de l’IA de manière systématique, le niveau 5 de chaque échelle représentant des performances potentiellement équivalentes à l’intelligence humaine générale. En évaluant les capacités avancées de l’IA comme la créativité, le raisonnement ou la métacognition, le cadre contribue à combler le fossé entre l’inquiétude du grand public et la réalité technique. Les performances de niveau 5 restant difficiles à atteindre, il convient de ne pas se perdre en conjectures sur les risques d’un potentiel « niveau IAG » et de les mettre en balance avec des données empiriques. Cela permettra aux décideurs de prendre des mesures plus ancrées dans la réalité et plus tournées vers l’avenir.
Soutien des parties prenantes à utiliser les indicateurs
À terme, l’OCDE entend que ces indicateurs servent de référence mondiale pour les pouvoirs publics, les chercheurs universitaires et l’industrie. La réalisation de cet objectif impliquera plusieurs stratégies clés :
Facilité d’utilisation et portée : créer des formats interactifs et des bases de données consultables pour qu’un grand nombre de parties prenantes puisse facilement utiliser les indicateurs
Outils pratiques : fournir des ressources à la fois quantitatives et qualitatives (p. ex. des scénarios professionnels) qui illustrent la manière dont les capacités émergentes de l’IA modifieront les contextes de travail et d’enseignement
Suivi systématique : recueillir divers exemples d’utilisation auprès des pouvoirs publics, des entreprises et des chercheurs pour créer une base de connaissances accessible recensant les applications réelles
Implication continue des parties prenantes : impliquer les spécialistes, les professionnels et les décideurs dans l’ajustement des indicateurs en faisant la promotion d’une adoption à grande échelle et de l’amélioration collaborative
En fin de compte, ces stratégies visent à garantir que les indicateurs de l’OCDE sur les capacités de l’IA comblent le fossé qui existe entre les évaluations techniques et les politiques susceptibles d’être mises en place. En mesurant les capacités de l’IA de manière exhaustive, les pouvoirs publics et les parties prenantes sont mieux à même d’anticiper les avantages et les risques des technologies d’IA émergentes et de prendre des mesures responsables et éclairées en vue d’une croissance durable et axée sur l’innovation (MLCommons, 2025[4]).
Références
[7] Autor, D., F. Levy et R. Murnane (2023), « The skill content of recent technological change: An empirical exploration », The Quarterly Journal of Economics, vol. 118/4, pp. 1279-1333, https://academic.oup.com/qje/article/118/4/1279/1925105.
[8] Clark Center for Global Markets (2025), Kent A. Clark Center for Global Markets, https://www.kentclarkcenter.org/us-economic-experts-panel/.
[10] Dell’Acqua, F. et al. (2023), « Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality », Document de travail de la Harvard Business School, n° 24-013, https://www.hbs.edu/ris/Publication%20Files/24-013_d9b45b68-9e74-42d6-a1c6-c72fb70c7282.pdf.
[12] Eloundou, T. et al. (2023), « GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models », arXiv, https://arxiv.org/abs/2303.10130.
[3] Élysée.fr (2025), Déclaration sur une intelligence artificielle inclusive et durable pour les peuples et la planète, 11 février, site Internet de l’Élysée, Paris, https://www.elysee.fr/emmanuel-macron/2025/02/11/declaration-sur-une-intelligence-artificielle-inclusive-et-durable-pour-les-peuples-et-la-planete.
[5] Handa, K. et al. (2025), « Which Economic Tasks are Performed with AI? Evidence from Millions of Claude Conversations », arXiv, https://arxiv.org/abs/2503.04761.
[11] Maslej, N. et al. (2025), Artificial Intelligence Index Report 2025, https://arxiv.org/abs/2504.07139.
[4] MLCommons (2025), Better AI for Everyone, https://mlcommons.org/.
[9] Morris, M. et al. (2024), Levels of AGI for Operationalizing Progress on the Path to AGI, DeepMind, https://deepmind.google/research/publications/66938.
[6] OCDE (2025), AI and the Future of Skills Volume 3: The OECD AI Capability Indicators, Éditions OCDE, Paris.
[2] OCDE (2024), Recommandation du Conseil sur l’intelligence artificielle, OCDE, Paris, https://legalinstruments.oecd.org/fr/instruments/OECD-LEGAL-0449.
[1] UE (2024), Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024, Journal officiel de l’Union européenne, Journal officiel de l’Union européenne, https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=OJ:L_202401689.
Notes
Copier le lien de Notes← 1. Pour une approche fondée sur les tâches d’évaluation des incidences des grands modèles de langage sur les professions, voir (Eloundou et al., 2023[12]) ou (Handa et al., 2025[5]).
← 2. Tout au long de ce rapport, on utilise les termes « capacité » pour désigner les tâches de base que l’IA peut réaliser et « compétence » pour désigner les tâches de base que les humains peuvent accomplir.
← 3. Afin de collecter systématiquement des données à partir de références permettant d’évaluer les capacités des systèmes d’IA décrites dans les indicateurs, l’OCDE lance une base de données en ligne en parallèle à ce rapport. Les chercheurs en IA pourront soumettre des références, entre autres formes de méthodes de mesure de l’IA permettant d’évaluer n’importe laquelle des capacités couvertes par les échelles mises au point par l’OCDE, à l’adresse suivante : https://aicapabilityindicators.oecd.org. Les évaluations proposées seront examinées par l’OCDE et son groupe d’experts afin de déterminer si elles pourront être utilisées dans les futures mises à jour des échelles.