Ce chapitre porte sur les méthodes et les approches utilisées par les services de communication du Gouvernement français pour définir et mesurer les indicateurs de performance associés à leurs communications. Il identifie les lacunes et les possibilités d’améliorer la conception des communications ainsi que l’évaluation et l’apprentissage. Il présente également des recommandations pour améliorer les normes d’évaluation et propose des approches pour les intégrer dans toutes les institutions publiques en s’appuyant sur des exemples internationaux réussis.
Scan de la communication publique en France
2. Relever les standards de mesure, d’évaluation et d’apprentissage dans le domaine de la communication publique
Copier le lien de 2. Relever les standards de mesure, d’évaluation et d’apprentissage dans le domaine de la communication publiqueDescription
Approches de l’évaluation des dispositifs de communication en France
Copier le lien de Approches de l’évaluation des dispositifs de communication en FranceLes services de communication des dix agences gouvernementales et publiques françaises examinées pour ce rapport sont confrontés à la même problématique relative à l’évaluation que l’ensemble du secteur, tout en ayant une position plutôt exemplaire au niveau international. L’évaluation est désormais une pratique établie dans les institutions publiques françaises et des efforts visibles sont déployés pour la rendre de plus en plus sophistiquée. Il ressort de ce chapitre que les pratiques observées parmi les pairs les plus matures des pays de l’OCDE et d’autres acteurs internationaux, ainsi que les standards dans le secteur et dans la documentation sont riches d’enseignements et d’outils qui ne demandent qu’à servir.
En France, les institutions publiques ont largement adopté des méthodes de communication fondées sur des données. L’évaluation des dispositifs de communication est devenue une pratique courante pour les ministères et les agences françaises, s’appuyant sur la définition systématique de KPI pour ces dispositifs lorsqu’ils sont associés à un processus de passation de marchés publics.
L’examen d’un échantillon de 50 dispositifs récents montre que tous ont été évalués à l’exception d’un seul. À cet égard, les institutions publiques françaises se distinguent de la plupart de leurs pairs au sein de l’OCDE, où l’évaluation reste peu fréquente. La majorité des DICOM semble procéder à des évaluations régulières et approfondies de leurs dispositifs. Plusieurs DICOM utilisent les indicateurs des dispositifs précédents pour comparer leurs performances et déterminer les KPI des dispositifs suivants.
Toutefois, la profondeur et la qualité de l’évaluation sont très variables et mettent en évidence de vastes axes d’amélioration susceptibles de faire gagner la communication en efficacité, efficience de la rendre plus stratégique. Les données examinées montrent que l’évaluation concerne principalement les métriques liées aux produits et celles relatives aux éléments payants des dispositifs de communication. En revanche, les résultats et l’impact à long terme sont plus rarement évalués, voire pas du tout.
Un grand nombre des limites à la profondeur et à la qualité de l’évaluation est lié à des problèmes associés à la conception et aux objectifs des dispositifs de communication. En effet, ces derniers sont principalement conçus pour assurer une large portée et une grande visibilité aux questions de politiques publiques, aux programmes et aux services, mais sont rarement destinés (du moins explicitement) à susciter un changement au sein des publics ou de la société. Bien qu’il s’agisse d’une tendance due à des facteurs qui échappent souvent au contrôle direct des services de communication (voir chapitre 3), il est possible d’améliorer les pratiques de définition des objectifs des dispositifs, ce qui permettrait de mieux en mesurer l’impact.
La prévalence de l’évaluation dans les dispositifs constitue une base solide sur laquelle s’appuyer pour introduire des approches plus avancées permettant de mesurer et de mieux démontrer l’impact des dispositifs.
Cette section se concentre sur les processus et les méthodes utilisés pour développer et évaluer les dispositifs de communication comme instrument prédominant déployé par les DICOM, les agences et le SIG, et auquel sont consacrées les ressources financières et humaines les plus importantes. Sont ainsi examinées les pratiques actuelles des DICOM en matière de conception et d’évaluation de leur communication, y compris leurs choix d’indicateurs de performance. Suivent ensuite des recommandations pour une plus grande mesure des résultats et de l’impact, en s’appuyant en particulier sur les procédures d’agrément liées à la passation de marchés publics avec dispositif de communication. Ce dernier aspect s’est avéré être un levier précieux pour encourager les bonnes pratiques, mais il pourrait être renforcé pour entraîner d’autres améliorations, un point abordé plus loin.
Intégrer l’évaluation dans la conception des dispositifs de communication
Les premières étapes de l’évaluation de la communication publique se situent au stade de la conception d’une activité. Le lien entre la définition des objectifs et leur mesure est apparu comme une meilleure pratique reconnue dans l’examen des standards internationaux et de la documentation susmentionnée, ainsi que dans les pratiques des gouvernements les plus avancés dans ce domaine (OECD, 2021[1]).
En ce qui concerne l’élaboration des dispositifs, les directions de la communication des institutions publiques françaises se conforment systématiquement à cette pratique. Sur l’échantillon de 50 dispositifs analysés via l’enquête de l’OCDE auprès de dix directions de la communication, presque tous (94 %) impliquaient la définition de KPI au stade de la conception (Graphique 2.1). À cet égard, la France se distingue du paysage international, où seule une petite minorité d’institutions publiques interrogées (12 sur 63) par l’OCDE en 2020 ont déclaré avoir défini les métriques ou les méthodes d’évaluation au stade de l’élaboration de leur stratégie de communication (OECD, 2021[1]).
Malgré ce bilan positif, l’analyse qualitative révèle que la définition des KPI n’est souvent pas menée avec rigueur et précision pour déterminer des indicateurs spécifiques à un objectif donné, mais que cette étape est plutôt motivée, dans de nombreux cas, par la nécessité de se conformer aux procédures d’agrément pour la passation de marchés de services externes. Notamment, le formulaire obligatoire de demande d’agrément au SIG pour toute prestation de création, de publicité ou de recherche sociale exige que les directions précisent comment elles entendent mesurer les objectifs d’une campagne et les indicateurs à utiliser pour évaluer la performance de l’aspect publicitaire de l’activité uniquement.
Par conséquent, la définition de KPI pour les activités peut parfois se résumer à un simple processus formel pour les services de communication, lesquels auraient autrement renoncé à cette étape en raison de la pression lors du déploiement du dispositif.
Graphique 2.1. Les KPI sont définis lors de la création de chaque dispositif
Copier le lien de Graphique 2.1. Les KPI sont définis lors de la création de chaque dispositifQuestion de l’enquête : Pour les cinq derniers dispositifs déployés par votre ministère/agence, pour combien d’entre eux les KPI ont-ils été définis dès le début de la campagne ?
Remarque : n=50 dispositifs, chaque répondant pouvait sélectionner un nombre de 0 à 5.
Source : enquête de l’OCDE sur les responsables de la communication du Gouvernement français au niveau des ministères et des agences, 2025.
Les entretiens ont montré que, dans la pratique, les services de communication (principalement ceux des ministères plutôt que des agences) ont tendance à fixer des KPI concernant l’atteinte des groupes cibles et la visibilité de la campagne. Il s’agit de métriques avec lesquels elles sont à l’aise et qui sont obtenus par défaut auprès du prestataire de services auquel elles ont eu recours (voir ci-dessous). Ces mesures sont des indicateurs importants pour évaluer et comparer les performances des différents canaux et contenus de communication, mais elles sont rarement suffisantes en tant qu’indicateurs clés d’un dispositif dans son ensemble, en raison de leur incapacité à mesurer les résultats pour le public, comme cela a été vu plus haut.
Comme les activités de communication organiques intégrées à un dispositif ne sont pas incluses dans les procédures d’agrément, les KPI ont tendance à être définis sans en tenir compte. Les attentes en matière de performance et de contribution des communications organiques à l’objectif global du dispositif ne sont donc pas précisées dès le départ. De plus, à l’exception du SIG, les communications non rémunérées ne font pas l’objet d’une évaluation régulière.
Définir l’objectif de la communication : informer, changer et recruter
De même que pour la définition des KPI d’une activité, le formulaire de procédure d’agrément que les communicants doivent soumettre au SIG exige qu’ils classent l’objectif global de l’activité selon trois options possibles : informer (le public), changer (le comportement) et recruter (le personnel du service public). Cette étape doit aller de pair avec la sélection des KPI afin de s’assurer qu’ils sont appropriés pour estimer la réalisation des objectifs. Les trois options reflètent certaines de celles que l’on trouve dans les orientations des pays de l’OCDE pour encadrer toutes les activités de communication qu’ils mènent et favorisent une communication davantage axée sur les objectifs (Encadré 2.1). Le recrutement est un ajout notable en France et représente une part considérable des dispositifs du secteur public (Graphique 2.2).
Encadré 2.1. Macro-objectifs de la communication publique en Belgique et au Royaume-Uni
Copier le lien de Encadré 2.1. Macro-objectifs de la communication publique en Belgique et au Royaume-UniPour régir l’objectif général de la communication publique et aider les communicants des ministères et des institutions publiques à définir leurs stratégies de communication, plusieurs pays ont codifié les macro-objectifs que les communicants peuvent choisir pour encadrer toute activité. Le service central de communication de la Belgique s’appuie sur trois objectifs principaux qui correspondent en partie à ceux de la France : la sensibilisation, le changement de comportement et la gestion de la réputation.
Le service de Communication du Gouverment du Royaume-Uni a défini un ensemble similaire de macro-objectifs sous l’acronyme CORE qui combine ceux utilisés chez leurs pairs français et belges :
C – Changer les comportements au profit de la société
O – efficacité Opérationnelle des services publics
R – Réputation du Royaume-Uni et réaction en cas de crise
E – Explication des politiques et programmes gouvernementaux
Source : présentation du Service public fédéral belge, Chancellerie du Premier ministre lors de la réunion du réseau de communication publique de l’OCDE le 26 février 2025 ; GCS (2025), Guide to campaign planning : OASIS, https://gcs.civilservice.gov.uk/guidance/marketing/delivering-government-campaigns/guide-to-campaign-planning-oasis/
L’examen des 50 dispositifs gouvernementaux montre que plus de la moitié d’entre eux ont pour objectif principal d’informer le public. Cela correspond à une estimation fournie lors des entretiens avec le Secrétariat pour l’ensemble des dispositifs, qui suggérait plutôt que la moitié restante était majoritairement constituée de campagnes de recrutement et minoritairement de campagnes de changement de comportement (environ 10 % du total).
La catégorie des objectifs Informer regroupe les dispositifs visant à sensibiliser le public à une question donnée et à promouvoir certains programmes publics. Toutefois, un grand nombre des campagnes dites « d’information » comprend des éléments qui encourageraient le public à mener une certaine action (par exemple, signaler un changement de situation personnelle pour adapter les impôts applicables ou consulter un outil en ligne qui aide à réduire sa consommation d’alcool). Dans l’échantillon examiné, plus d’un dispositif sur cinq avait deux objectifs, l’un étant d’informer et l’autre soit de changer soit de recruter (en proportions égales).
Ce degré de fluidité entre les objectifs indique un manque de spécificité quant aux objectifs des dispositifs et s’écarte de l’intention du cadre de clarification. D’après trois entretiens, les dispositifs à double objectif se sont révélés moins performants que ceux qui n’en ont qu’un.
Les DICOM n’ont généralement que des attentes de visibilité générales pour leurs dispositifs, un objectif dont la mesure et la réalisation ne leur posent pas de difficulté. La plupart des entretiens ont confirmé que les ministères et les agences sont satisfaits de pouvoir généralement atteindre leurs publics cibles. Cela semble expliquer pourquoi ils préfèrent limiter l’objectif de la communication à la diffusion d’un sujet ou d’une initiative gouvernementale. Inversement, les entretiens ont fait apparaître une certaine hésitation à fixer des objectifs de changement de comportement, dont la planification et la mesure suscitent des réticences.
Les objectifs sous-jacents des dispositifs d’information sont généralement moins stratégiques ou précis (plus pour les ministères que pour les agences), ce qui peut limiter leur impact sur les mesures politiques (voir chapitre 3). De même, nombre de ces dispositifs tendent à cibler des publics très larges, ce qui augmente le coût de la publicité sans nécessairement en accroître l’impact.
En revanche, les orientations du service de Communication du Gouvernement du Royaume-Uni préconisent de limiter les dispositifs de sensibilisation et visant à modifier les comportements, car les résultats concrets qui contribuent aux résultats politiques sont difficiles à obtenir. Ces orientations précisent que ces types d’activités doivent continuer de tenir compte de « la manière dont les objectifs de communication visant à accroître la sensibilisation ou à changer les comportements alimentent les objectifs comportementaux et politiques généraux » (GCS, 2025[2]).
Graphique 2.2. L’information du public est l’objectif principal pour la moitié des dispositifs de communication
Copier le lien de Graphique 2.2. L’information du public est l’objectif principal pour la moitié des dispositifs de communicationQuels étaient les objectifs généraux des cinq dispositifs menés par votre ministère/agence ?
Remarque : n=50 dispositifs, plusieurs réponses possibles. 11 dispositifs sont comptabilisés deux fois parce qu’ayant plus d’un objectif. Les réponses du SIG sont incluses dans la rubrique « Ministères ». Total des dispositifs : 32 « Informer », 15 « Recruter » et 14 « Changer ».
Source : enquête de l’OCDE sur les responsables de la communication du Gouvernement français au niveau des ministères et des agences, 2025.
Le recrutement est un objectif de dispositif de plus en plus courant pour la plupart des DICOM, et l’un de ceux pour lesquels les objectifs sont les mieux définis. Les campagnes de recrutement bénéficient souvent de budgets parmi les plus importants et, dans certains cas, les DICOM peuvent mesurer leurs résultats et leur impact en termes de volume de candidatures, de qualité (adéquation avec les profils recherchés) et de recrutement final.
Toutefois, le recrutement diffère également en ce sens qu’il s’agit d’une communication non pas pour l’information des citoyens, mais plutôt pour les besoins opérationnels des institutions publiques. L’impact de la communication est donc direct pour l’institution publique, et indirect pour les citoyens dans la mesure où le recrutement contribue au bon fonctionnement des services de l’administration. Si la communication liée au recrutement continue de croître, en particulier en matière de budget, il pourrait être nécessaire de « protéger » les ressources consacrées à la communication à l’attention des citoyens, afin de s’assurer qu’elles ne sont pas détournées pour des besoins internes en matière de ressources humaines.
La définition de l’objectif d’un dispositif et l’alignement des KPI sur celui-ci constituent une bonne pratique qui devrait être renforcée pour favoriser une communication plus stratégique et à l’impact plus prononcé. À cette fin, le SIG, en tant que destinataire des demandes d’agrément, pourrait aider les DICOM à réviser les finalités et les objectifs des dispositifs que ces derniers proposent. Cette étape contribuerait à une classification plus précise des objectifs et pourrait amener un meilleur équilibre avec les dispositifs contribuant à des actions mesurables et pertinentes du point de vue des politiques publiques de la part du public. Les sections suivantes proposent des moyens de tirer parti des procédures d’agrément pour atteindre cet objectif.
Sélection et mesure des indicateurs de performance des communications
Les institutions publiques françaises mesurent et évaluent systématiquement la performance du contenu de leurs dispositifs de communication et sont en mesure de déterminer si elles ont atteint leurs publics cibles. La plupart des DICOM interrogées n’ont pas de difficulté pour définir et suivre des KPI de visibilité, en particulier en ce qui concerne la performance des contenus.
Toutefois, elles évaluent rarement l’effet du contenu d’un dispositif au-delà de sa performance sur les canaux de communication. En outre, il arrive souvent que d’autres éléments de la communication ne fassent pas l’objet de mesures, principalement les activités organiques (c’est-à-dire non rémunérées) et autres non liées à des dispositifs spécifiques.
La documentation sur l’évaluation et les meilleures pratiques du secteur (voir chapitre précédent) soulignent l’importance de mesurer non seulement la performance des produits de la communication, mais aussi les effets qu’ils ont sur les perceptions, les actions et les choix du public. Enfin, l’évaluation des activités de communication devrait inclure une estimation de la contribution aux objectifs politiques ou organisationnels généraux (mesures d’impact). Les directions françaises de la communication ont donc la possibilité d’élargir l’évaluation de leur travail pour y inclure des indicateurs liés aux résultats et à l’impact à plus long terme, et d’en faire une pratique standard.
L’examen d’un échantillon de 50 dispositifs récents montre que les principaux types d’indicateurs de performance mesurés concernent les indicateurs liés aux produits, principalement ceux relatifs à la portée du contenu. Comme le montre la Graphique 2.3, la portée et les impressions, ainsi que la mesure spécifique dans laquelle le public cible a été atteint, étaient les indicateurs les plus couramment mesurés dans au moins trois quarts des campagnes.
Graphique 2.3. Types d’indicateurs mesurés dans les dispositifs de communication
Copier le lien de Graphique 2.3. Types d’indicateurs mesurés dans les dispositifs de communicationDans les cinq dernières campagnes menées par votre ministère/organisme, quelles étaient les catégories de KPI mesurées ?
En outre, les indicateurs de portée mesurés dans de nombreux cas concernent le contenu publicitaire, qui est régulièrement analysé par l’agence de marketing et partagé par défaut. Les entretiens avec les DICOM ont confirmé que ces rapports constituent parfois la seule évaluation réalisée pour certains dispositifs. Ainsi, l’évaluation du contenu de la communication organique est beaucoup moins fréquente. Les indicateurs concernant principalement le contenu d’une communication organique dans la Graphique 2.3, comme la couverture médiatique, les mentions dans les réseaux sociaux et l’analyse du sentiment concernant le sujet de la campagne sur les canaux traditionnels et en ligne, sont moins couramment mesurés.
A contrario, les indicateurs de résultats à court terme relatifs à l’engagement du public vis-à-vis du contenu constituaient la deuxième catégorie d’indicateurs la plus fréquente (trois quarts des dispositifs). Ces indicateurs comprennent les réactions du public et les interactions avec le contenu, les taux de clics vers les pages Web pertinentes du Gouvernement, le temps passé sur une page ou la durée de visionnage d’un contenu vidéo.
Dans l’ensemble, les indicateurs de portée et d’engagement sont des métriques de produits utiles pour les communicants. Ils permettent de comprendre les performances des différents aspects des dispositifs, des différents formats de contenu ou des différents canaux, afin de déterminer les tactiques à privilégier et de maintenir les bonnes pratiques. Il s’agit donc d’indicateurs particulièrement utiles aux premiers stades d’une campagne, lorsque les produits peuvent être ajustés. Ils restent toutefois insuffisants pour juger des résultats d’une campagne et ne doivent donc pas être considérés comme prioritaires dans les KPI aux fins de l’évaluation sommative (c’est-à-dire finale).
Il s’agit plutôt d’indicateurs principaux pendant la phase d’évaluation du processus (c’est-à-dire pendant la campagne). Des considérations relatives à l’utilisation de différents indicateurs à différents stades d’une activité sont développées dans la section 10345021 sur l’intégration des meilleures pratiques d’évaluation dans l’ensemble du Gouvernement.
Mesurer plus systématiquement les résultats et l’impact
La fréquence élevée à laquelle le volume et la portée des produits de communication sont définis comme KPI est cohérente avec la prévalence des dispositifs dont l’objectif principal est d’informer le public (ou de « donner de la visibilité » à une initiative ou à un sujet, selon les termes des DICOM interrogées). Ainsi, même lorsque les résultats sont évalués par des post-tests, ceux-ci portent sur la sensibilisation. Ce phénomène a été observé dans les campagnes ayant mesuré le souvenir qu’avaient les publics des contenus.
Le changement de comportement ou d’opinion n’est mesuré que dans un tiers des campagnes, conformément au fait que seule une minorité de campagnes l’avait déclaré comme objectif principal. Les entretiens ont montré que le changement de comportement n’est souvent mesuré qu’en termes de déclarations d’intention des personnes interrogées de donner suite au message de la campagne dans les enquêtes post-test. Plusieurs directeurs de la communication ont fait part de leur scepticisme sur ces indicateurs en raison de leur incapacité à observer les changements. Toutefois, ces déclarations sont rarement comparées à des données exogènes qui pourraient servir d’indicateur du changement de comportement recherché, d’après les entretiens.
Un KPI facilement mesurable et fournissant une approximation des résultats et de l’impact consiste à transformer le contenu d’une campagne en parcours pour le public sur divers sites Web publics puis à mesurer l’accès aux programmes, services publics et plateformes de recrutement. Les dispositifs institutionnels orientent généralement le public vers la recherche d’informations supplémentaires, puis vers l’inscription, le téléchargement ou l’interaction avec un service public ou une initiative. Pourtant, ces types d’engagement n’apparaissent que dans une minorité (36 %) des campagnes analysées. Cette pratique reste également en retrait au niveau international : seulement 21 % des 57 responsables de la communication interrogés par l’OCDE en 2025 déclarent évaluer l’adoption des politiques ou des services résultant de leurs actions de communication.
Les entretiens ont confirmé que, de plus en plus, avec le soutien du SIG, les DICOM suivent les flux de trafic Web provenant d’éléments de campagne spécifiques. Cela permet aux communicants de déterminer les contenus les plus à même d’informer les citoyens sur les initiatives du Gouvernement. Cependant, les DICOM en mesurent rarement les étapes, comme le téléchargement d’un formulaire de candidature à un programme. Par exemple, un directeur de la communication interrogé a affirmé que son équipe n’avait pas accès au nombre de candidatures reçues dans le cadre de ses campagnes de recrutement.
Dans une minorité de cas, quatre des DICOM ministériels interrogés ont indiqué avoir mesuré les résultats concernant l’utilisation des services en ligne, la consommation d’énergie et les demandes d’emploi reçues, mais ils ont précisé que cela ne s’appliquait que lorsque les résultats escomptés étaient concrets et mesurables. À l’inverse, les agences publiques évaluent généralement les résultats, parfois même en menant des essais de contrôle et en collaborant avec des experts en recherche et en marketing social afin de suivre les changements de comportement à long terme et d’estimer les effets économiques (voir Encadré 2.2).
Le manque d’accès aux données de base et ex-post sur le recrutement, sur l’utilisation des services ou sur les performances du programme liées au dispositif a été cité comme une raison limitant l’évaluation de ces résultats à long terme. Il s’agit pourtant de l’une des catégories d’indicateurs les plus importantes pour déterminer l’efficacité des communications et anticiper leur impact. Par exemple, l’ancien cadre1 d’évaluation du gouvernement de Nouvelle-Galles du Sud (Australie) invite les communicants à analyser les bases de données gouvernementales afin de fixer et de mesurer des objectifs comme les recettes, les dons, les inscriptions ou d’autres indicateurs pertinents sur les effets des campagnes (New South Wales Government, 2020[3]).
Les efforts visant à rendre la communication publique plus stratégique et plus efficace devraient commencer systématiquement par l’obtention de données de référence et de données ex-post sur les services, les programmes ou les campagnes de recrutement que la communication est censée soutenir.
Dans de nombreux cas, les données nécessaires sont déjà détenues par le secteur public, mais les cloisonnements internes font souvent obstacle aux services de communication. L’identification des données pertinentes pourrait devenir une étape clé de la communication entre les DICOM et les directeurs généraux ou les agents qui demandent une campagne. Pour renforcer cette pratique, le SIG pourrait modifier les formulaires d’agrément des marchés publics de campagne afin d’exiger au moins un résultat à long terme et un KPI sur l’impact.
Encadré 2.2. Évaluation des résultats et de l’impact de la communication sur la santé publique par Santé publique France
Copier le lien de Encadré 2.2. Évaluation des résultats et de l’impact de la communication sur la santé publique par Santé publique FranceL’agence Santé publique France (SPF) a adopté certaines des méthodes les plus avancées pour évaluer les effets et l’impact des campagnes de communication publique par rapport aux objectifs directs et indirects en matière de politiques publiques et de santé.
SPF mène des campagnes de prévention régulières qui visent à modifier les comportements des citoyens et à les inciter à faire des choix de vie plus sains. L’une de ces campagnes, le « Mois Sans Tabac », est une initiative annuelle qui se déroule en novembre et qui invite les fumeurs à arrêter de fumer pendant ce mois.
À l’image des autres campagnes de SPF, les effets et l’impact social de celle-ci sont évalués avec des enquêtes longitudinales et des analyses statistiques et économétriques. Plus précisément, la campagne Mois Sans Tabac a été évaluée pour son efficacité à induire un changement de comportement, à la fois à court et à long terme, avec des enquêtes de suivi mesurant les effets sur le tabagisme un an après la campagne.
Elle a également été évaluée en fonction des retombées économiques anticipées (réduction des dépenses de santé, productivité de la main-d’œuvre) et du retour sur investissement découlant du nombre de maladies induites par le tabagisme que l’on estime pouvoir empêcher par rapport à un scénario sans initiative de ce type.
L’efficacité relative de la campagne a également été évaluée année après année afin de tirer des insights et des enseignements sur la manière dont les différents publics réagissent à la campagne et s’inscrivent en ligne pour participer à l’initiative. Le Graphique 2.4 montre que les performances de la campagne en 2020 ont été inférieures à celles des années précédentes, ce qui a conduit à repenser à la conception et au ciblage du public pour les itérations suivantes.
Graphique 2.4. Effets de la campagne Mois Sans Tabac sur les tentatives d’arrêt du tabac 2016-2020
Copier le lien de Graphique 2.4. Effets de la campagne <em>Mois Sans Tabac</em> sur les tentatives d’arrêt du tabac 2016-2020
Source : SPF (2022), « Effectiveness of the French Mois sans tabac on quit attempts in the first year of Covid-19: a population-based study », https://www.santepubliquefrance.fr/determinants-de-sante/tabac/documents/poster/effectiveness-of-the-french-mois-sans-tabac-on-quit-attempts-in-the-first-year-of-covid-19-a-population-based-study ; Guignard R, et al. « Effectiveness of the French Mois sans tabac on quit attempts in the first year of Covid-19: a population-based study » https://www.santepubliquefrance.fr/determinants-de-sante/tabac/documents/poster/effectiveness-of-the-french-mois-sans-tabac-on-quit-attempts-in-the-first-year-of-covid-19-a-population-based-study ; Devaux M, et al., Tobacco Control Epub (2023) https://tobaccocontrol.bmj.com/content/tobaccocontrol/early/2024/07/31/tc-2023-058568.full.pdf ; Guignard R, et al. (2019), « Efficacité de Mois sans tabac 2016 et suivi à 1 an des individus ayant fait une tentative d’arrêt, à partir du Baromètre de Santé publique France 2017 » https://www.santepubliquefrance.fr/determinants-de-sante/tabac/documents/enquetes-etudes/efficacite-de-moi-s-sans-tabac-2016-et-suivi-a-1-an-des-individus-ayant-fait-une-tentative-d-arret-a-partir-du-barometre-de-sante-publique-france
Comme sera abordé dans la sous-section suivante, les procédures d’agrément constituent un levier important qui pourrait être revu afin d’encourager de meilleures pratiques d’évaluation. Ces actions pourraient en outre être soutenues par des orientations détaillées, comme celles dont disposent certains des gouvernements les plus avancés de l’OCDE dans ce domaine, et par le développement des compétences correspondantes (ces deux aspects sont abordés dans la section 10345021 ci-dessous).
Renforcer les procédures d’agrément pour encourager de meilleures pratiques de mesure
Pour améliorer l’efficacité de tout type de campagne (et la mesure de cette efficacité), il faudrait commencer par associer aux objectifs spécifiques des indicateurs de résultat pertinents. Les procédures d’agrément en place pour l’achat de services de communication et les dépenses publicitaires se sont révélées être un outil important pour encourager les bonnes pratiques en faveur d’une communication plus stratégique et fondée sur des données.
Toutefois, ces procédures n’ont pas encore débouché sur les mesures et les évaluations rigoureuses de l’impact de la communication voulues par les dernières réformes concernant le SIG et la fonction de communication. Comme sera abordé plus loin, des processus similaires sont utilisés dans d’autres pays de l’OCDE pour mettre en œuvre l’évaluation et pourraient servir d’exemples pour renforcer les exigences en France.
Les procédures d’agrément de marchés publics sont obligatoires et s’appliquent à la grande majorité des ministères et agences françaises qui souhaitent passer des contrats de service externes par le biais de contrats-cadres centralisés. Un contrat-cadre négocié pour l’ensemble du secteur public garantit des tarifs préférentiels aux institutions publiques et est géré par le SIG. Le SIG est en effet l’entité chargée de valider les campagnes comportant une composante de publicité payée assortie d’un budget supérieur à 50 000 €, un seuil qui a été abaissé en septembre 2024 (SIG, 2024[4]). Outre les dispositifs de communication, des procédures d’agrément sont en place pour d’autres étapes dans le cadre de la plateforme centralisée Démarches simplifiées (y compris la création de comptes sur les réseaux sociaux, les sondages et les études d’opinion ainsi que les consultations du marché).
Le formulaire demande aux équipes de préciser l’objectif de l’activité (informer, changer ou recruter) et les KPI pour les composantes médias payantes de l’activité. Les exemples d’indicateurs cités dans les entretiens confirment la préférence pour ces métriques de portée : couverture des cibles, taux de réalisation d’un objectif de portée, nombre de visites sur le site Web. Le formulaire exige qu’un rapport d’évaluation soit communiqué au SIG à l’issue de l’activité. Pour toutes les campagnes dont le budget est supérieur à EUR 300 000, les services de communication doivent en outre mener un post-test2 et en partager les résultats avec le SIG (SIG, 2024[4]). Il s’agit d’une condition importante pour augmenter le taux d’évaluation des résultats, qui est également à la traîne au niveau international. Parmi les 38 gouvernements interrogés par le Secrétariat de l’OCDE, moins d’un quart (22 %) ont déclaré utiliser des enquêtes dans leurs évaluations (OECD, 2021[1]).
Le processus d’agrément permet au SIG de diffuser les meilleures pratiques au sein de l’administration, ce qu’il fait de plus en plus. Avec la clarification en 2024 de son rôle de supervision et de coordination sur l’ensemble des campagnes du Gouvernement, il intervient désormais à toutes les étapes (agrément et suivi) avant le déploiement des campagnes associées aux marchés publics. Cela concerne principalement les projets à gros budget, qui comprennent de plus en plus souvent un soutien sur des aspects comme les études d’opinion à la base de la stratégie et le cahier des charges de l’agence de communication, les réunions de planification, les conseils stratégiques et l’alignement interministériel, les conseils sur les KPI et le soutien pour suivre le trafic vers les pages Web du Gouvernement généré par la campagne.
Dans le cas où l’agrément est refusé par le SIG, l’activité doit être suspendue. Ces refus sont toutefois quasi inexistants selon les entretiens. Au contraire, ces dernières années, les dépôts de dossiers font de plus en plus l’objet de révisions après examen avec les conseils du SIG jusqu’à être conformes aux attentes.
Pour que le processus d’agrément soit efficace et incite à de meilleures pratiques de planification et d’évaluation, il est important d’aller au-delà des formalités administratives, et de faire qu’il soit reconnu comme une étape sérieuse, à valeur ajoutée, de la planification de campagnes efficaces. D’après les entretiens menés dans le cadre de cette étude, cette reconnaissance gagne du terrain. Renforcées ces dernières années, ces procédures constituent désormais une étape importante de la responsabilité interne, soumise à l’examen des hauts responsables, alors qu’il s’agissait auparavant de simples formalités.
Toutefois, il semblerait que les exigences en matière d’évaluation ne soient toujours pas respectées de manière uniforme. Les entretiens avec les DICOM ont montré que les équipes ne produisent pas toujours des rapports d’évaluation complets, se limitant souvent aux estimations de portée fournies par l’agence de publicité engagée. En outre, les post-tests sont réalisés avec des budgets limités, lorsqu’il y en a, ce qui réduit les possibilités de tester l’efficacité réelle de la campagne (voir ci-dessous).
Les pratiques internationales peuvent offrir des enseignements utiles sur la manière dont le SIG peut optimiser les procédures d’agrément des marchés publics afin d’atteindre les objectifs qui sous-tendent son récent mouvement de réforme. En effet, on retrouve des processus similaires dans tous les pays dans le but de favoriser une rationalisation de la passation des marchés, d’assurer une allocation efficace des finances publiques, de réduire les doublons et de garantir la transparence et la responsabilité (voir Encadré 2.3).
À titre de comparaison, les procédures d’agrément des marchés publics en Australie, au Canada et au Royaume-Uni sont plus strictes que celles en vigueur en France. Elles exigent notamment de justifier les dépenses publicitaires et de rendre compte de leur efficacité en procédant à une évaluation. Les services de communication au Royaume-Uni peuvent se voir refuser des agréments pour des activités ultérieures si elles ne produisent pas un rapport d’impact conforme.
Encadré 2.3. Procédures d’agrément de marchés publics liés à la communication en Australie, au Canada et au Royaume-Uni
Copier le lien de Encadré 2.3. Procédures d’agrément de marchés publics liés à la communication en Australie, au Canada et au Royaume-UniPlanification annuelle
Au Canada, les services de communication doivent se conformer à des procédures d’achat centralisées avant de lancer une campagne payée ou une étude d’opinion. Ce processus est notamment consolidé dans un plan annuel où la majorité des dépenses est approuvée pour l’année, à l’exception des dépenses ad hoc inférieures au seuil de 40 000 dollars canadiens (qui peuvent être approuvées par les directeurs de la communication en fonction des besoins). Cette mesure encourage la planification à long terme, en particulier pour les grandes initiatives budgétaires.
Au Royaume-Uni, toute initiative dont les dépenses en publicité, marketing et communication (PMC) dépassent 100 000 £ au cours d’un exercice fiscal est également soumise à une procédure d’agrément gérée par le GCUK au sein du Cabinet Office. Comme pour le Canada, les demandes doivent être regroupées en un plan annuel lors d’un processus appelé « exercice de planification stratégique », qui est contrôlé par le GCUK au moyen d’un système de feux tricolores pour accepter ou rejeter les demandes. Toutes les demandes non planifiées doivent être accompagnées d’une justification montrant que les dépenses nécessaires ne pouvaient pas être anticipées, et les équipes requérantes doivent soumettre un dossier technique au GCUK pour justifier la demande en détail tant pour les demandes non planifiées que pour les demandes qui ne sont pas immédiatement acceptées.
Justification des dépenses (analyse coût-bénéfice)
Dans l’État australien de Nouvelle-Galles du Sud, la loi impose que toute publicité gouvernementale démontre que les fonds publics sont utilisés de manière efficiente et efficace, qu’il existe un besoin avéré de publicité et que le recours à la publicité payante est nécessaire au-delà des canaux détenus, acquis ou des partenariats avec les parties prenantes. Les campagnes doivent suivre un processus formel d’approbation conforme à un cadre et à des lignes directrices définis, dont la complexité augmente avec le budget. Les campagnes de moins de 250 000 AUD nécessitent un examen succinct ; celles comprises entre 250 000 AUD et 1 million AUD requièrent une revue indépendante par des pairs ; et les campagnes dépassant 1 million AUD doivent également inclure une analyse coûts-avantages. (voir les sources).
Indicateurs de performance et pré-tests/post-tests comme conditions préalables
La définition d’indicateurs de performance est une étape obligatoire des procédures d’agrément au Canada comme au Royaume-Uni, et les rapports d’évaluation sont une exigence courante.
Au Canada, les pré-tests3 sont plus souvent exigés que les post-tests : les campagnes dont les achats relatifs à des médias dépassent 2 millions de dollars canadiens doivent voir leur contenu créatif testé avant leur lancement. En outre, ces campagnes doivent être évaluées à l’aide de l’outil d’évaluation des campagnes publicitaires (Outil d’évaluation de campagnes publicitaires, OECP), qui fournit un modèle pour post-tester les résultats et l’impact de la campagne. Les résultats de tous les sondages d’opinion et de toutes les campagnes publicitaires doivent être communiqués au Bureau du Conseil privé dans les six mois suivant leur réalisation.
En Nouvelle-Galles du Sud, les procédures d’agrément exigent le dépôt d’un « rapport sur l’efficacité de la publicité » dans les trois mois suivant l’achèvement des campagnes dont les dépenses dépassent 50 000 dollars australiens sur une période de 12 mois.
La procédure britannique est plus stricte et conditionne l’agrément des dépenses futures au respect des engagements pris en matière de communication des résultats des activités : « Toutes les campagnes approuvées doivent faire l’objet d’un rapport régulier sur les KPI, ainsi que d’un rapport d’évaluation de fin d’année à l’intention des GCUK. Le rapport de fin d’année doit présenter les résultats obtenus par rapport aux objectifs de la campagne, identifier les enseignements tirés et fournir des recommandations pour les activités futures. »
Mesures de transparence et de responsabilité
Au Canada, les rapports d’évaluation obligatoires sont rendus publics dans le cadre des mesures de transparence et de responsabilité. Le gouvernement de Nouvelle-Galles du Sud communique des informations détaillées sur toutes les campagnes payantes et encourage les institutions publiques à publier sur leur site Web la justification de la publicité, les objectifs, les coûts et les résultats, entre autres.
Sources : GCS (2025), Advertising, marketing and communications spending control guidance, Advertising, marketing and communications spending control guidance - GCS; Gouvernement du Canada (2025), « Annexe A : Procédure obligatoire relative à la publicité », Directive sur la gestion des communications et de l’image de marque, https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=30682§ion=procedure&p=A ; Gouvernement du Canada (2025), « Annexe B : Procédure obligatoire relative à la recherche sur l’opinion publique », Directive sur la gestion des communications et de l’image de marque, https://www.tbs-sct.canada.ca/pol/doc-fra.aspx?id=30682§ion=procedure&p=B ; gouvernement de Nouvelle-Galles du Sud (2025), Campagnes de publicité supérieures à 1 million $, https://www.nsw.gov.au/nsw-government/communications/government-advertising/advertising-campaigns-over-1-million ; gouvernement de Nouvelle-Galles du Sud (2025), Campagnes de publicité allant jusqu’à 250 000 $, https://www.nsw.gov.au/nsw-government/communications/government-advertising/advertising-campaigns-up-to-250000#toc-approval-process-for-campaigns-under-250000 ; gouvernement de Nouvelle-Galles du Sud (2025), Campagnes de publicité entre $250,000 et $1 million https://www.nsw.gov.au/nsw-government/communications/government-advertising/advertising-campaigns-between-250000-and-1-million; gouvernement de Nouvelle-Galles du Sud (2025), Analyse coût-bénéfice de la publicité gouvernementale : Guide d’utilisateur, https://www.nsw.gov.au/sites/default/files/2020-02/Cost-benefit-analysis-framwork-user-guide.pdf ; gouvernement de Nouvelle-Galles du Sud, département du Trésor (2011), Government Advertising Act, https://legislation.nsw.gov.au/view/whole/html/inforce/current/act-2011-035.
Le SIG pourrait proposer de modifier les exigences en matière d’évaluation afin de couvrir la définition de KPI pour l’ensemble de l’activité (plutôt que pour sa seule composante publicitaire) et la sélection d’indicateurs de résultats liés aux métriques d’impact prévues, en plus des métriques de performance déjà utilisées. Cette nouvelle exigence potentielle pourrait être satisfaite par l’introduction d’un cadre d’évaluation spécifique et d’une matrice d’indicateurs, comme recommandé ci-dessous. Le renforcement des procédures d’agrément pourrait être un moyen de soutenir l’adoption d’autres recommandations de ce chapitre, comme celles sur le format et le contenu des rapports d’évaluation, ou sur la préaffectation du budget pour l’évaluation, par exemple.
Les procédures d’agrément dans d’autres pays de l’OCDE, notamment, sont également un moyen d’appliquer les exigences de coordination de la communication dans le cadre des cycles de planification annuels. La planification annuelle est l’un des objectifs nouvellement introduits dans le cadre des récentes réformes de la communication et du rôle du SIG (voir chapitre 3). Elle pourrait être soutenue par une modification des procédures d’agrément afin de favoriser un vaste exercice annuel couvrant la majorité des activités de communication prévisibles.
Cette recommandation serait compatible avec le nombre considérable de campagnes cycliques (principalement menées par des agences publiques), et elle permettrait aussi d’augmenter la part des campagnes interministérielles qui sont de plus en plus privilégiées pour optimiser les finances publiques et renforcer la cohérence et la lisibilité des messages du Gouvernement.
Intégration des meilleures pratiques d’évaluation dans l’ensemble du Gouvernement
Copier le lien de Intégration des meilleures pratiques d’évaluation dans l’ensemble du GouvernementLes exigences formelles qui donnent au SIG un droit de regard sur l’agrément de marchés publics liés à des campagnes ont été des leviers importants pour l’intégration de l’évaluation des campagnes du Gouvernement. Toutefois, pour que soient appliquées les bonnes pratiques lors de la conception et de l’évaluation de campagnes, il faudra aussi introduire les méthodes, les ressources et les compétences nécessaires à leur acquisition par les communicants du Gouvernement.
Les entretiens menés par le Secrétariat ont permis de confirmer que les DICOM ont souvent des difficultés à concevoir des opérations de communication de façon à produire des résultats tangibles. Cela explique en partie les problèmes liés à l’évaluation de leur travail au-delà des résultats à court terme. Par exemple, le Graphique 2.5 montre que les agences publiques, qui ont tendance à mener des activités étendues et planifiées longtemps à l’avance avec des objectifs davantage liés à un programme, ont également tendance à mesurer leurs résultats plus régulièrement que les ministères.
En outre, il existe une série d’obstacles liés aux compétences, aux ressources et à la culture de l’évaluation qui empêchent d’améliorer les standards de communication stratégique. Le Graphique 2.5 illustre ces obstacles en rassemblant les justifications invoquées par les DICOM à l’absence d’évaluation.
Selon cette illustration, les répondants semblent juger suffisants les indicateurs liés aux produits (une interprétation probablement limitée car il ressort des entretiens que certains répondants pourraient utiliser une interprétation plus large des produits qu’ils mesurent). Cependant, la plupart des DICOM interrogées ont exprimé un réel désir d’aller au-delà des pratiques d’évaluation actuelles et de pouvoir mesurer l’impact de leur travail, même si elles ont exprimé des doutes quant à leur capacité à le faire. Cette constatation s’inscrit dans le cadre d’un manque général en matière d’aptitudes et de compétences.
Graphique 2.5. Raisons de ne pas évaluer les résultats de campagnes
Copier le lien de Graphique 2.5. Raisons de ne pas évaluer les résultats de campagnesSi les produits des activités de communication ne sont pas évalués (en particulier si les résultats de l’une des cinq campagnes les plus récentes n’ont pas été évalués), quelles en sont les principales raisons ?
Remarque : n=10 services, plusieurs réponses possibles. Les réponses des SIG sont incluses dans la rubrique « Ministères ». La formulation complète de « Nous pouvons estimer la réussite sur la base des métriques liées aux produits » était « Nous pouvons estimer la réussite sur la base des indicateurs liés aux produits (portée, volume de couverture/mentions) ».
Source : enquête de l’OCDE sur les responsables de la communication du Gouvernement français au niveau des ministères et des agences, 2025.
Les limitations budgétaires sont apparues comme un autre obstacle majeur. Il ressort des entretiens que même lorsque le budget total de la campagne déclenche l’obligation de réaliser des post-tests, il n’y a pas de budget consacré à l’évaluation. Par ailleurs, même quand il y en a, il est souvent trop faible pour que les post-tests aillent au-delà des méthodes les plus élémentaires. En effet, la majeure partie du budget est généralement consacrée à la production de contenus de campagne créatifs haut de gamme et à l’achat d’espaces publicitaires pour les diffuser, ce qui ne laisse que peu ou pas de fonds pour le pré-test des contenus ou la mesure de leurs effets.
Enfin, la disponibilité de données de référence et de données exogènes permettant d’évaluer les activités pose régulièrement problème et doit être traitée en priorité.
Le SIG peut diriger les efforts visant à surmonter ces obstacles et à diffuser les meilleures pratiques en matière de mesure, d’évaluation et d’apprentissage dans l’ensemble de l’administration. Pour y parvenir, il conviendrait d’introduire des orientations et des ressources complètes pour aider les communicants à adopter les pratiques avancées, tout en les aidant à diffuser et à utiliser davantage de données de référence et d’outils d’évaluation. En outre, l’introduction et l’adoption d’orientations devraient s’accompagner d’investissements dans la professionnalisation des équipes. Cela peut servir les objectifs d’amélioration des compétences techniques et de la culture organisationnelle pour favoriser une utilisation plus rigoureuse des données comme base de tout travail de communication. En tant qu’élément clé des meilleures pratiques, les actions visant à professionnaliser les équipes devraient porter principalement sur l’amélioration de la manière dont les mesures et les évaluations sont utilisées pour l’apprentissage et appliquées pour l’amélioration continue au sein des équipes et entre elles.
Enfin, le SIG peut appliquer la logique de l’évaluation à ses propres efforts pour conduire le changement dans les DICOM ministérielles, en introduisant des indicateurs pertinents pour l’adoption de bonnes pratiques, comme la part des campagnes qui définissent des objectifs SMART, le nombre de rapports d’évaluation réalisés ou encore le nombre de fonctionnaires qui ont reçu une formation.
Cette section du rapport examine quatre approches fondamentales visant à améliorer les standards de mesure, d’évaluation et d’apprentissage dans les services de communication du Gouvernement français, conformément aux pratiques communément appliquées à l’international, à savoir :
le développement d’un cadre commun et complet pour le modèle MEL ;
la consolidation de l’accès à des données et leur partage à des fins de comparaison et d’étalonnage, la justification des choix et la mesure des KPI concernant les politiques publiques et les objectifs de recrutement ;
des mesures visant à transformer les évaluations en enseignements ; et
des initiatives de renforcement des capacités et de professionnalisation.
Le SIG est l’entité la mieux placée pour mener ces actions, compte tenu de son mandat central de réforme et d’amélioration des pratiques de communication au sein du Gouvernement, et des initiatives parallèles qu’il mène, notamment dans certaines des quatre dimensions susmentionnées. En outre, les ministères et les agences interrogés par le Secrétariat ont exprimé leur soutien aux réformes menées par le SIG au cours des dernières années et ont salué son rôle dans la coordination et le soutien de la communication interministérielle. En particulier, certaines DICOM ont rapidement intégré les conseils et l’aide directe qu’elles ont reçus du SIG en ce qui concerne les métriques et les méthodes d’évaluation.
Si la plupart d’entre elles ont exprimé leur accord avec la nécessité d’améliorer la mesure, l’évaluation et l’apprentissage, elles ont également mis en garde contre des charges et des exigences excessives, qu’elles auraient du mal à satisfaire. Les communicants, en particulier au sein des ministères, ont souligné les limites des capacités et des ressources pour se conformer à des exigences supplémentaires. De même, la plupart d’entre elles se sont montrées réticentes à l’idée d’introduire des métriques communes qui permettraient de comparer les performances de leurs dispositifs à celles de leurs homologues mieux dotés en ressources.
L’intégration des meilleures pratiques d’évaluation dans l’ensemble du Gouvernement devrait donc compenser des exigences plus strictes avec un soutien important aux services de communication dans les ministères, par exemple en ce qui concerne l’agrément des marchés publics liés à des campagnes.
Mise en place d’un cadre et d’outils d’évaluation communs
En examinant les pratiques internationales pour ce Scan, le Secrétariat a observé qu’une majorité de pays de l’OCDE ne disposent pas de processus formels, de métriques ou d’orientations pour évaluer les communications. Toutefois, la plupart des pays et des institutions publiques dans lesquels l’évaluation est plus avancée ont tendance à disposer d’orientations spécifiques sur la manière de procéder.
Ainsi, l’Australie, le Canada, Singapour et le Royaume-Uni fournissent des exemples de cadres d’évaluation et de boîtes à outils pour leur application. Les services de communication de certains pays ont également noté qu’ils utilisaient le cadre d’évaluation élaboré par l’organisme international de normalisation AMEC (2025[5]), qui comporte les mêmes éléments clés que tous les principaux cadres. La Commission européenne propose en outre un modèle complet d’indicateurs de performance qui peuvent être utilisés pour évaluer tout type de communication (European Commission, 2024[6]).
L’élaboration d’un cadre commun ou d’une boîte à outils pour l’évaluation en France serait une étape utile pour définir les attentes en matière de modèle MEL rigoureux et pour guider les services de communication des ministères et des agences dans l’adoption de bonnes pratiques. Le SIG pourrait s’inspirer des exemples de gouvernements présentés dans cette section et dans le MEL Manual for Public Communication élaboré par le professeur Macnamara (2024[7]) et publié par l’AMEC comme base pour un document adapté aux institutions publiques françaises.
Un élément commun aux principaux cadres dans ce domaine reflète la nature continue de la mesure et de l’évaluation tout au long d’une activité. L’exemple singapourien de l’Encadré 2.4 illustre la manière dont les données sont analysées pour aiguiller les décisions à chaque étape de l’élaboration et de l’exécution d’une campagne. Cela est cohérent avec l’accent mis sur l’évaluation formative et l’évaluation des processus dans la documentation (voir section dans le chapitre 1 :) et dans les orientations d’autres pays. Le MEL Manual de Jim Macnamara (Macnamara, 2024), par exemple, suggère que la majeure partie de l’évaluation devrait être réalisée au stade formatif des campagnes afin d’aiguiller la mise en œuvre et de fournir des données de référence.
Conseils sur les indicateurs de performance et d’impact pour les campagnes payantes et organiques
La sélection des indicateurs de performance est également alignée sur la phase du cycle de la campagne au cours de laquelle l’évaluation est réalisée. Jim Macnamara fait ici (2024[7]) la distinction entre les premières étapes, au cours desquelles un grand nombre d’indicateurs sur la performance des produits permet de déterminer l’efficacité du contenu et de procéder aux ajustements nécessaires, et la fin de l’activité, au cours de laquelle l’évaluation doit se concentrer sur la mesure de quelques indicateurs sélectionnés seulement, à partir desquels les communicants peuvent déduire les résultats par rapport aux objectifs SMART de la campagne.
Dans cette logique, un cadre français pourrait inclure des orientations sur le choix des indicateurs de performance en les classant en deux niveaux : un premier niveau, où 3 à 5 KPI sont définis par rapport à une base de référence et mesurés à la fin de la campagne pour déterminer ses résultats et son impact ; et un second niveau, où les indicateurs de performance les plus pertinents pour chaque canal de communication sont mesurés afin de tester leur efficacité relative. Une matrice d’indicateurs correspondant à ces deux niveaux pourrait constituer un élément précieux pour un cadre français afin de guider les communicants dans leur choix. L’annexe A présente les modèles sélectionnés.
Le premier niveau de KPI pourrait inclure des métriques comme les changements de comportement et de perception observés ou déclarés (y compris la rétention d’informations et l’acceptation d’activités purement informatives), les taux de clics et l’engagement sur les pages Web promues par la campagne, les enregistrements, les téléchargements, les candidatures ou demandes de prestations, ou d’autres actions pertinentes liées aux services ou aux initiatives gouvernementaux promus.
Les indicateurs d’impact, comme le taux de candidatures, la participation électorale ou les changements à plus long terme en matière de confiance, d’économie ou de santé, devraient être inclus dans la mesure du possible, de manière compatible avec la méthode de la théorie du changement, mais avec des mises en garde (chiffres représentant des estimations plutôt que des mesures exactes). Les rapports d’évaluation adressés à des non communicants au sein du Gouvernement doivent s’attacher à expliquer les résultats obtenus par rapport à ces KPI ciblés.
Encadré 2.4. Cadre d’évaluation des campagnes de communication à Singapour
Copier le lien de Encadré 2.4. Cadre d’évaluation des campagnes de communication à SingapourLe ministère du Développement numérique et de l’information (Ministry of Digital Development and Information, MDDI), qui est l’entité centrale chargée de la communication interministérielle à Singapour, a élaboré un guide complet pour les campagnes de communication fondées sur les données. Ce guide montre comment la mesure et l’évaluation interviennent dès le stade de la définition des objectifs et met fortement l’accent sur l’analyse en amont et tout au long d’une campagne.
Le guide comprend un cadre d’évaluation de la campagne basé sur le modèle contributions-produits-résultats-impact qui aide les utilisateurs à mesurer les résultats de leurs campagnes à travers neuf dimensions clés ou classes d’indicateurs : 1) Portée, 2) Engagement, 3) Sensibilisation, 4) Compréhension, 5) Satisfaction, 6) Soutien, 7) Attitude, 8) Intention et 9) Changement de comportement. Chacune de ces catégories d’indicateurs est assortie d’une batterie de questions standard à des fins de mesure.
Les orientations exigent que l’évaluation compare les données de base et les données finales recueillies dans ces neuf dimensions afin de déterminer l’efficacité de la campagne par rapport aux objectifs SMART, qui s’appuient également sur les données des campagnes précédentes (à des fins comparatives).
Graphique 2.6. Le cycle de communication axé sur les données à Singapour
Copier le lien de Graphique 2.6. Le cycle de communication axé sur les données à Singapour
Source : ministère du Développement numérique et de l’information, Singapour (2025).
Encadré 2.5. Orientations sur l’attribution des résultats et de l’impact des campagnes de communication des pays de l’OCDE
Copier le lien de Encadré 2.5. Orientations sur l’attribution des résultats et de l’impact des campagnes de communication des pays de l’OCDEÉvaluation des campagnes de communication visant un changement de comportement, orientations du Royaume-Uni et des Pays-Bas
Le guide du Royaume-Uni sur la communication visant un changement de comportement met en avant des considérations importantes pour la conception et l’évaluation de ce type de campagne qui tiennent compte des obstacles au changement de comportement.
S’appuyant sur le modèle de la théorie du changement (voir chapitre 1), le guide invite les communicants à identifier toutes les conditions qui doivent être réunies pour induire un changement de comportement. Le guide traite notamment des obstacles à la capacité, à l’opportunité et à la motivation (modèle COM-B) que la communication peut aider à surmonter pour rendre possible un changement de comportement.
En ce qui concerne l’évaluation, le guide reconnaît que la communication peut ne porter ou n’être en mesure d’influer que sur un ou deux des obstacles au changement, les autres relevant d’autres aspects de la politique publique ou de l’initiative. Il invite donc les communicants à étudier tous les obstacles susceptibles d’entraver le changement de comportement afin de déterminer si les conditions sont réunies pour que la communication induise le changement souhaité. Cela fait partie de la contextualisation de la contribution de la communication à l’impact des politiques publiques.
En outre, le guide explique comment attribuer un changement de comportement à une communication, en mesurant les facteurs qui prouvent que le ou les obstacles traités par la communication ont été surmontés. Cela passe notamment par le biais de groupes de discussion et d’enquêtes quantitatives.
Les Pays-Bas ont développé l’instrument de stratégie d’activation des communications (Communicatie Activatie Strategie Instrument, CASI), un guide qui offre un processus structuré pour développer des stratégies de communication basées sur des insights comportementaux. Le guide précise les étapes à suivre pour mesurer le comportement et récolter les données pertinentes, et invite les utilisateurs à toujours pré-tester leurs interventions, même de manière minimale.
Le guide CASI propose deux méthodes d’évaluation : l’expérimentation et la mesure des effets. Une expérience rassemble deux groupes : l’un qui reçoit l’intervention de communication (groupe d’intervention) et l’autre qui ne la reçoit pas (groupe témoin). Cette méthode est considérée comme idéale pour établir une relation de cause à effet entre l’intervention et le résultat. Mesurer l’effet permet d’estimer l’effet total, sans pour autant attribuer un lien de causalité avec certitude.
Calculer le retour sur investissement (ROI) en matière de communication, exemple du Royaume-Uni
Si évaluer l’impact d’une activité permet de déterminer si les objectifs ont été atteints, il est également important, pour les campagnes payantes, d’estimer la valeur générée par rapport à l’investissement. Il peut s’agir d’une métrique utile, bien qu’imparfaite, de l’efficacité qui accompagne d’autres indicateurs de résultats et d’impact. Le service de Communication du Gouvernement au Royaume-Uni a mis au point un processus en cinq étapes pour estimer le retour sur investissement de ses activités payées, et ce pour des objectifs pertinents. Ces étapes sont les suivantes :
Définir des objectifs axés sur des résultats quantifiables (par exemple, le volume d’investissements étrangers directs générés ou le nombre d’employés du secteur public recrutés) ;
Travailler à partir d’une base de référence des résultats quantifiables (c’est-à-dire des indicateurs) ci-dessus ex ante ;
Prévision de l’évolution tendancielle de ces indicateurs de résultats par rapport à la situation de référence au cours de la période de communication (c’est-à-dire un scénario contrefactuel dans lequel aucune intervention de communication n’a été menée) ;
Isoler l’effet de la communication des autres facteurs qui affecteront ces indicateurs de résultats. Par exemple, si une intervention distincte pour la mise en œuvre de politiques publiques (par exemple, une taxe, une subvention ou un changement législatif) a été introduite pour entraîner un changement sur les mêmes résultats quantifiables, son effet doit être quantifié pour l’exclure de la mesure des effets de la campagne ;
Prendre en compte les externalités (c’est-à-dire des conséquences involontaires, positives ou négatives) qui pourraient résulter de la campagne et des changements qu’elle engendre par rapport à ses objectifs déclarés. En quantifiant leurs coûts, il est possible de les ajouter ou de les soustraire du calcul du retour sur investissement.
Ces étapes reposent sur des hypothèses de qualité concernant des facteurs exogènes liés à d’autres leviers du Gouvernement ou échappant à son contrôle. Le processus d’évaluation devrait également passer par un affinement de ces hypothèses après campagne afin de les mettre à jour pour prendre en compte les facteurs qui n’avaient pas été prévus au stade de la planification.
Le calcul du retour sur investissement devient alors un processus de quantification de la valeur des résultats attendus et des externalités, et compare la valeur générée pour chaque livre sterling investie dans un dispositif. Le guide du cycle d’évaluation des CGS illustre ce processus avec un exemple concret.
Source : GCS (2021) Principes de communications pour le changement de comportement, https://gcs.civilservice.gov.uk/wp-content/uploads/2021/02/The_principles_of_behaviour_change_communications.pdf ; https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&cad=rja&uact=8&ved=2ahUKEwj-6bGM25GOAxVDK_sDHR_aEwYQFnoECBUQAQ&url=https%3A%2F%2F ; ministère des Affaires générales des Pays-Bas (2020), CASI, www.communicatierijk.nl%2Fbinaries%2Fcommunicatierijk%2Fdocumenten%2Fpublicaties%2F2021%2F12%2F09%2Fcasi-in-english%2FCASI%2BEnglish.pdf&usg=AOvVaw1vQ_ra9XSV_aeHPuCgx9UI&opi=89978449 ; GCS (2025) Evaluation Cycle, ROI, https://gcs.civilservice.gov.uk/publications/gcs-evaluation-cycle/#ROI
Estimer l’effet de la communication sur les changements de comportement et l’impact de politiques publiques est l’un des aspects les plus difficiles de l’évaluation sur le terrain ; cet aspect mériterait d’être traité dans un rapport-cadre destiné aux communicants du Gouvernement français. En France comme dans d’autres pays de l’OCDE, l’attribution d’une relation de cause à effet à une campagne de communication spécifique dans un contexte de causalités complexes est source d’hésitation (Buhmann and Likely, 2018[8]).
Cependant, certains des cadres d’évaluation examinés au cours de cette étude fournissent une orientation adéquate aux communicants étape par étape permettant d’estimer la contribution de la communication aux résultats et de présenter ces résultats de manière à éviter de sous-estimer ou d’exagérer le rôle d’un dispositif sur un changement donné (voir Encadré 2.5).
Le deuxième niveau d’indicateurs non-clés pourrait inclure un éventail plus large d’indicateurs liés aux produits et aux résultats à court terme, comme l’atteinte des publics cibles, les niveaux et la qualité de l’engagement vis-à-vis du contenu, le volume et le ton de la couverture et des mentions (y compris par le biais de partenariats), les taux de clics, les recherches sur le Web, la qualité du trafic sur le Web, l’analyse des sentiments et bien d’autres encore. Ces indicateurs sont principalement destinés aux professionnels de la communication et n’ont qu’une signification limitée pour les autres parties prenantes internes.
Pour les campagnes payantes, des métriques d’efficacité financière peuvent également être calculées à des fins d’allocation de budgets et de responsabilisation. Le guide du cycle d’évaluation du Royaume-Uni mentionne des indicateurs liés aux produits spécifiques, comme le coût par sensibilisation, par changement de comportement ou par expression d’intérêt, pour évaluer l’efficacité du contenu et des canaux d’un point de vue financier (GCS, 2025[2]). Le guide propose également une méthodologie pour calculer le retour sur investissement (ROI), bien que la fiabilité de cet indicateur de valeur fasse l’objet de mises en garde dans certaines recherches et par certains experts du domaine (Buhmann and Volk, 2022[9]).
La définition des KPI d’une campagne doit aller de pair avec la planification de son évaluation. En particulier, les considérations relatives aux méthodes et au coût de l’évaluation d’une campagne doivent être prises en compte à ce stade. L’une des raisons souvent invoquées par les DICOM de ne pas effectuer de post-tests, ou d’en limiter la portée, est l’insuffisance du budget restant une fois les éléments créatifs et payants d’une campagne achetés. Le guide du cycle d’évaluation du Royaume-Uni précise qu’entre 5 et 10 % du budget total d’une campagne doivent être alloués à son évaluation. Une telle considération serait des plus pertinentes dans un guide d’évaluation français et pourrait être reflétée dans les formulaires d’agrément des marchés publics liés à des dispositifs de communication.
Évaluation des communications à faible coût et gracieuses
L’évaluation est tout aussi importante pour les activités de communication à faible coût et gracieuses. Cumulées, ces communications peuvent mobiliser d’importantes ressources publiques en termes de temps et d’efforts. Mais sans budget spécifique, l’évaluation doit s’appuyer sur des données librement disponibles, généralement plus abondantes pour les produits que pour les résultats ou l’impact.
En France, de nombreuses institutions publiques interrogées ont admis ne pas avoir évalué leurs activités non publicitaires, qu’elles soient liées à des éléments de campagnes de grande ampleur ou à des communications ponctuelles. Certains ministères indiquent qu’en l’absence de post-test, les rapports fournis par les agences de communication font pratiquement office d’évaluation. De même, une DICOM a estimé que des activités représentant un tiers du travail effectué en son sein n’étaient jamais évaluées.
Il peut s’agir d’événements, par exemple, mais aussi d’éléments comme le travail du service de presse, les partenariats, la gestion des canaux numériques institutionnels, la communication de crise et la communication interne. Si certains ministères mesurent simplement les performances de certains canaux, comme les réseaux sociaux et les newsletters, ils ne disposent pas d’objectifs clairs pour ces canaux afin d’en déterminer la contribution globale à leur stratégie de communication générale.
Les agences publiques ont tendance à être plus cohérentes que les ministères dans leur évaluation des activités non rémunérées ou à faible coût et, ainsi, pourraient être source de bonnes pratiques et de données de référence dans ce domaine. Deux d’entre elles ont indiqué, lors d’entretiens avec le Secrétariat, qu’elles évaluaient régulièrement les activités (comme les événements en fonction du nombre de participants et leur pertinence, et en fonction des conversions résultant de l’événement) et qu’elles menaient des enquêtes qualitatives auprès des participants. Une autre agence a indiqué avoir demandé l’ajout d’une question relative à la communication dans les formulaires de demande pour un dispositif d’aide financière (« Comment ont-elles entendu parler du dispositif ? ») afin de comprendre l’efficacité relative des différents canaux et contenus.
Le SIG se démarque en ayant adopté des méthodes pour mesurer la performance des activités organiques à la fois dans le contexte des campagnes et de manière globale, par exemple dans ses rapports annuels (voir Encadré 2.6). Les méthodes et les indicateurs utilisés pourraient servir de références utiles pour un guide d’évaluation complet élaboré pour les services de communication français. Néanmoins, il est possible de développer davantage la manière dont ces activités sont évaluées, même au sein du SIG, afin de soutenir les décisions stratégiques sur la manière dont les différents leviers de communication sont déployés pour soutenir les objectifs du Gouvernement. L’analyse et la mesure des canaux numériques et des partenariats permettent aux communicants d’évaluer la performance relative des différents produits, mais leur contribution globale aux objectifs stratégiques pourrait être mieux évaluée.
Encadré 2.6. Évaluation des communications organiques à travers le numérique et les partenariats au sein du SIG
Copier le lien de Encadré 2.6. Évaluation des communications organiques à travers le numérique et les partenariats au sein du SIGBien que le SIG ne dispose pas de son propre service de presse interne, plusieurs de ses départements mènent régulièrement des activités à faibles coûts ou non payantes. Chacun selon sa spécialité a développé des méthodes et des indicateurs pour mesurer la performance de ces activités dans le cadre de campagnes ou bien en dehors.
Web et communication numérique
Au sein du SIG, le Département écosystème numérique a mis en place un tableau de bord permettant de mesurer le trafic Web (ouvert à tous) ainsi qu’un portail de conseils sur l’analyse de ces données à l’attention des communicants. L’équipe aide également les communicants de l’ensemble du Gouvernement à suivre le parcours des publics sur les sites Web du Gouvernement, via l’outil audience.communication.gouv.fr, lancé en mai 2024, qui fait office « d’observatoire » unique des sites Web du Gouvernement.
Cet outil recueille des données et des analyses sur le trafic du vaste réseau de sites Web et d’applications mobiles du Gouvernement à des fins d’analyse et de comparaison. Il s’agit donc d’un outil utile pour guider l’amélioration de la performance des communications publiques et de l’expérience utilisateur avec les interfaces en ligne.
Comme indiqué dans ce chapitre, il s’agit d’une source essentielle de données sur l’efficacité de la communication qui permet aux citoyens d’accéder aux services de l’État, aux opportunités de carrière et aux informations nécessaires pour faire des choix éclairés. Il peut également servir pour améliorer l’accessibilité, l’exhaustivité et la pertinence du contenu et de l’expérience utilisateur sur Internet.
Outre EcoNum, l’équipe éditoriale (Rédaction) est à l’origine de tous les contenus développés pour le Web et les réseaux sociaux au sein du SIG. L’équipe mesure également la performance du contenu des réseaux sociaux sur les canaux numériques du SIG, généralement non payant et servant à amplifier les campagnes interministérielles ainsi qu’à fournir une information gouvernementale quotidienne aux abonnés et aux visiteurs du site Web.
L’équipe éditoriale a récemment mis en place un système de suivi pour enregistrer tous les contenus qu’elle développe sous différents formats et publie sur divers canaux en ligne. Au moment de la rédaction du présent document, il ne s’agissait que d’un enregistrement du contenu publié, mais l’ambition est d’en faire un outil permettant de suivre les indicateurs de performance de ce même contenu. Pour l’heure, les performances sont analysées mensuellement grâce à une série d’outils d’analyse numérique, afin d’analyser la popularité des posts et l’engagement obtenu. Le contrôle et le suivi réguliers des indicateurs permettent de faire des choix stratégiques quant au contenu à développer et aux canaux à utiliser pour les différents publics cibles. Ces informations sont traitées dans le cadre d’exercices annuels d’évaluation comparative qui résument les résultats et fixent de nouveaux objectifs et de nouvelles approches pour l’année suivante.
Partenariats externes
Le pôle Partenariats du SIG contribue aux campagnes interministérielles en établissant des collaborations avec des organisations externes qui peuvent amplifier des campagnes d’intérêt général, notamment auprès de publics plus difficiles à atteindre pour les institutions publiques. Ces collaborations sont gracieuses : les partenaires co-créent et partagent du contenu via leurs canaux, et prennent parfois en charge les coûts d’amplification payante (ou fournissent de la publicité en nature). En tant que telles, elles constituent un moyen important d’accroître l’ampleur des campagnes du Gouvernement au-delà des budgets alloués.
L’équipe a adopté une liste d’indicateurs liés aux produits qui lui permet de mesurer le volume de couverture et d’engagement obtenu via les canaux des partenaires, notamment les réseaux sociaux, les courriels, les newsletters, les applications, le Web, l’audio (y compris les podcasts) et les événements. Bien que ces indicateurs dépendent de la collaboration des partenaires, ils sont généralement convenus en amont avec le SIG et observés par les partenaires. Obtenir des données auprès d’eux peut nécessiter un suivi spécifique de la part de l’équipe chargée des partenariats, mais, d’après leurs témoignages, la plupart des partenaires sont généralement désireux de montrer la valeur ajoutée qu’ils apportent à une campagne.
Dans l’ensemble, ce processus d’évaluation permet à l’équipe chargée des partenariats de quantifier la contribution de cette activité gracieuse aux indicateurs globaux de portée et d’engagement d’une campagne. Au fil du temps, les données relatives aux partenariats peuvent être utilisées pour établir des références sur les performances relatives d’un partenariat pour un objectif donné, en y ajoutant des mesures qualitatives de la valeur des canaux et de la marque du partenaire pour atteindre des cibles d’audience plus spécifiques et de manière plus approfondie.
Source : entretiens du Secrétariat de l’OCDE avec le SIG, 2025.
Par exemple, sur la base du rapport annuel des activités de communication numérique du SIG, il n’y a pas d’objectif ou de but déclaré qui permet d’en mesurer l’impact, même si des investissements importants ont été réalisés pour augmenter le volume de contenu sur les différents canaux en 2024. Bien que les objectifs de cette activité puissent être implicitement compris, la clarification de l’objectif stratégique (accroître la présence en ligne du SIG) faciliterait la mesure des résultats et la prise de décisions sur l’affectation des ressources et des efforts.
Dans le contexte des activités de partenariat du SIG, il est possible d’étendre l’évaluation qualitative afin d’obtenir une vision plus granulaire de la manière dont les partenariats avec des organisations tierces contribue à la réalisation d’objectifs spécifiques ou permet de mieux atteindre les publics cibles. Les hypothèses relatives à cette valeur ajoutée motivent le travail du SIG pour soutenir ses campagnes en les amplifiant par d’autres organisations pertinentes. Toutefois, ces hypothèses doivent être testées dans la mesure du possible, en particulier lors des phases d’élaboration d’une campagne de communication. Étant donné que ces activités se déroulent pour la plupart dans le cadre de campagnes payantes, il pourrait être possible de les évaluer de la même manière que les autres composantes de ces campagnes (pratique recommandée au Royaume-Uni, voir Encadré 2.7). Pré-tester le contenu du partenaire auprès des publics cibles permettrait de déterminer s’il paraît plus fiable ou s’il résonne mieux que celui du Gouvernement, par exemple.
Dans l’ensemble, les cadres examinés pour cette étude, comme ceux de la Commission européenne et du Royaume-Uni, préconisent explicitement d’adopter des approches proportionnelles pour l’évaluation de toutes les activités. Dans le contexte d’activités à faible budget ou organiques, cela se traduit par des métriques simples et en accès libre. Le Royaume-Uni a élaboré des orientations spécifiques pour évaluer cette catégorie d’activités de la manière la plus appropriée, sur la base de trois niveaux de contrôle (GCS, 2025[10]). Les activités organiques qui font partie de grandes campagnes payantes sont censées être évaluées selon les méthodes à grande échelle envisagées dans leur cadre. En revanche, la mesure et l’évaluation de toutes les autres activités sont définies selon les trois niveaux décrits dans l’Encadré 2.7.
Renforcer la mesure et l’évaluation en début de processus
Comme indiqué tout au long de cette étude, la mesure et l’évaluation font partie intégrante de la conception des activités de communication. L’évaluation formative devrait donc constituer un élément clé d’un guide des bonnes pratiques en matière de MEL destiné aux directions de la communication du Gouvernement français. Cela correspond aux cadres utilisés dans les pays les plus avancés de l’OCDE et par la Commission européenne.
L’évaluation formative englobe toutes les données et analyses sur lesquelles les communicants s’appuient pour comprendre les problèmes de communication à traiter, fixer des objectifs SMART et tester différentes approches. L’évaluation formative est également l’étape du processus où les indicateurs de performance sont sélectionnés, grâce à l’identification des données disponibles à mesurer au début de l’activité et pendant son déroulement.
Sur ce point, les services de communication français examinés dans cette étude s’appuient systématiquement sur des données pour étayer leurs campagnes. Le Graphique 2.8 illustre les sources de données utilisées dans l’échantillon de 50 campagnes de communication récentes. Dans l’ensemble, les services de communications utilisent souvent les sources existantes et conduisent moins de recherches spécifiques.
Encadré 2.7. Orientations pour l’évaluation des activités de communication à faible coût et gracieuses au Royaume-Uni
Copier le lien de Encadré 2.7. Orientations pour l’évaluation des activités de communication à faible coût et gracieuses au Royaume-UniLe GCUK a défini trois niveaux d’évaluation en fonction de la complexité de l’activité de communication et du budget alloué.
Suivi de base : suivi simple des métriques pour évaluer les performances en temps réel et signaler les problèmes/risques potentiels, comparaison des métriques aux données de référence/objectifs, et principalement via les mesures associées aux produits.
Suivi renforcé : suivi des produits et des effets dans les tableaux de bord/rapports afin de comprendre la réaction du public, présentation de l’analyse dans un rapport concis afin d’obtenir des recommandations compréhensibles et utilisables.
Évaluation complète : mesure complète des produits, des effets, des résultats et de l’impact avec un modèle de rapport prédéfini.
Dans la version complète du guide, à chaque niveau est associée une liste d’indicateurs possibles permettant d’évaluer les produits et certains résultats à court et moyen terme. Les orientations citent largement les canaux numériques comme source de données accessibles rapidement et librement, pouvant être utilisées pour évaluer la plupart des activités, même si ce n’est que partiellement. Un arbre de décision (voir Graphique 2.7) aide les communicants à définir l’approche d’évaluation la plus appropriée.
Graphique 2.7. Arbre de décision pour l’évaluation des activités de communication à faible coût et gracieuses
Copier le lien de Graphique 2.7. Arbre de décision pour l’évaluation des activités de communication à faible coût et gracieuses
Source : Service de communication du gouvernement britannique, Évaluer les communications à faible coût/sans frais https://gcs.civilservice.gov.uk/publications/evaluating-low-no-cost-communications/.
Les enquêtes d’opinion de routine et les sondages réalisés par les ministères et le SIG, par exemple, constituent la source de données la plus courante pour la quasi-totalité des campagnes. Elles ont pour avantage de suivre l’opinion de manière longitudinale sur certaines questions, mais tendent à être moins spécifiques aux questions centrales d’une campagne. En revanche, les enquêtes ad hoc, les groupes de discussion, l’écoute des médias et l’écoute sociale peuvent offrir des informations plus détaillées pour la conception de dispositifs, mais sont moins courants.
Parmi les campagnes examinées, celles qui impliquaient une recherche personnalisée et un pré-test avaient tendance à utiliser plusieurs des méthodes mentionnées dans le Graphique 2.8, tandis qu’une large minorité de campagnes s’appuyaient uniquement sur des enquêtes existantes et des rapports d’évaluation de campagnes antérieures. Par exemple, aucune des campagnes menées par le SIG en 2024 n’a fait l’objet de pré-test, selon les entretiens. Toutefois, la majorité des campagnes tendent à être évaluées en cours d’exécution afin d’ajuster la sélection des canaux, principalement les canaux payants (voir Graphique 2.9). Les entretiens indiquent que cette étape repose souvent sur des données et des recommandations fournies par l’agence de publicité).
Si l’on suit les bonnes pratiques internationales qui consistent à concentrer la majeure partie de l’évaluation sur la phase formative et le début du déploiement d’une activité, il faudrait intégrer systématiquement les pré-tests au processus. Par exemple, les pairs du Royaume-Uni interrogés dans le cadre de cette étude ont souligné qu’ils s’efforçaient de toujours pré-tester leurs campagnes avant leur lancement, même s’ils étaient pressés par le temps.
En effet, la plupart des DICOM interrogées ont indiqué que les contraintes de temps constituaient le principal obstacle aux pré-tests, en raison des courts intervalles entre le briefing d’une campagne et le lancement prévu. Toutefois, les entretiens ont également révélé que dans les cas où les campagnes étaient moins performantes, c’est parce que le contenu créatif était moins adapté à certains des canaux de communication choisis pour atteindre les publics cibles. Le manque d’harmonisation dans la planification et le développement d’une campagne, parfois dû à des cloisonnements entre des équipes internes travaillant sur des éléments distincts, est apparu comme une autre raison fréquente de performances médiocres. Intégrer des mesures et des évaluations lors de l’élaboration d’une campagne et au moment de son lancement pourrait donc aider à corriger les problèmes potentiels et à maximiser la performance des produits.
Graphique 2.8. Sources de données pour la conception de campagnes de communication
Copier le lien de Graphique 2.8. Sources de données pour la conception de campagnes de communicationPour les cinq dernières campagnes menées par votre ministère/agence, quelles sont, parmi les données suivantes, celles qui ont été utilisées pour élaborer les campagnes ?
Remarque : n=50 dispositifs, plusieurs réponses possibles.
Source : enquête de l’OCDE sur les responsables de la communication du Gouvernement français au niveau des ministères et des agences, 2025.
Données de référence et données de base pour la fixation d’objectifs de performance
Définir des objectifs de communication SMART et des objectifs de performance pour les indicateurs sélectionnés nécessite un accès aux données de référence et de base pertinentes. Comme indiqué plus haut, les DICOM interrogées disent souvent manquer de données exogènes pertinentes qui leur permettraient d’estimer les résultats et l’impact à long terme. Elles ont également fait part de leur difficulté à fixer des objectifs de performance pertinents, notamment par crainte que les attentes des parties prenantes internes ne dépassent les budgets disponibles.
Fournir des conseils sur la définition d’objectifs de performance réalistes et pertinents est l’un des moyens par lesquels le SIG peut contribuer à élever les pratiques en matière de communication stratégique fondée sur les données. En outre, le SIG peut fournir des sources supplémentaires de données de référence issues de campagnes du Gouvernement, qui peuvent être exploitées pour permettre une définition plus précise et plus fréquente des objectifs.
Le SIG dispose déjà de vastes sources de données grâce à l’externalisation des activités de recherche et de publicité du secteur public. Par exemple, la société de recherche sociale sous contrat central dispose des résultats de plus de 300 post-tests réalisés pour des campagnes du secteur public. De même, l’agence de publicité qui exécute les composantes payantes de toutes les campagnes du Gouvernement propose un tableau de bord interactif avec des métriques de performance pour toutes les campagnes passées. Au moment de la rédaction du présent document, les différentes DICOM ne pouvaient accéder qu’aux données relatives à leurs propres campagnes, alors que le SIG pouvait consulter les données de toutes les campagnes du secteur public. Il s’agit donc de sources de données très précieuses dont l’utilisation peut être renforcée.
Le SIG pourrait mettre en place des outils centralisés offrant à tous les communicants un accès aux vastes données disponibles et accompagner leur utilisation avec des orientations pratiques. Le SIG développe et fournit déjà des outils propres adaptés aux besoins des communicants de l’administration française, comme ceux mentionnés dans l’Encadré 2.6 ci-dessus. Par exemple, il existe un outil de ce type pour mesurer le trafic sur tous les sites Web du Gouvernement. Un autre, l’Observatoire des priorités gouvernementales (voir encadré 3.4) a récemment été développé par le SIG pour suivre le discours des médias et du public concernant des sujets de politiques publiques regroupés sous un ensemble de priorités gouvernementales essentielles. Ce tableau de bord en direct fournit à tous les communicants du Gouvernement de nouvelles données de suivi afin de contextualiser leurs activités.
Ces initiatives illustrent des approches intéressantes que le SIG pourrait adopter pour rationaliser l’accès aux bases de données des campagnes interministérielles. Une majorité (62 %) des 50 campagnes de l’échantillon s’appuie déjà sur les résultats de campagnes antérieures comme points de référence, notamment un grand nombre de celles qui se répètent chaque année. Un groupe élargi d’activités de pairs pourrait offrir les critères de références adaptés au sujet, au public cible, à la taille du budget et à d’autres paramètres pertinents, afin de maximiser la valeur des évaluations antérieures pour la définition d’objectifs stratégiques concernant des produits de communication.
Inversement, obtenir des données de base pertinentes sur les résultats et les mesures d’impact comme l’utilisation des services, l’adhésion aux programmes, le respect des politiques publiques ou encore les taux de recrutement nécessitera le développement d’une collaboration plus étroite avec les services (en agence et au Gouvernement) chargés des politiques et des programmes visés par les campagnes de communication. Cette collaboration permettra de veiller à ce que la communication apporte une valeur ajoutée concrète aux objectifs de l’organisation, un aspect qui sera abordé dans le chapitre suivant. La sélection des indicateurs de résultats et d’impact, ainsi que l’identification des données de référence pertinentes, devrait revenir aux non-communicants qui commandent une campagne, lors de la définition des objectifs et de la stratégie de celle-ci.
Transformer les évaluations en enseignements
L’apprentissage, troisième pilier du modèle MEL (Macnamara, 2023[11]), est celui qui apporte la plus grande valeur ajoutée aux institutions publiques, du fait de l’évaluation de leur travail. La culture de l’évaluation dans de nombreuses organisations se résume souvent à démontrer la réussite (Macnamara, 2024[7]). Pourtant, les Principes de Barcelone 4.0 veulent que l’évaluation comprenne les résultats, les améliorations et les progrès à faire afin d’en tirer des enseignements et d’évoluer. Il ne s’agit pas nécessairement de réussite (AMEC, 2020[12]). Prendre le temps de réfléchir au travail accompli, aux résultats obtenus et d’extrapoler les enseignements qui permettront de meilleures décisions est donc un élément essentiel des meilleures pratiques internationales. Comme indiqué dans cette section, les enseignements peuvent s’appliquer aux approches de communication, mais aussi aux méthodes de travail, au niveau de collaboration et aux processus en place, afin d’améliorer également les pratiques de gestion.
Les rapports d’évaluation sont le moyen standard de formaliser l’analyse des résultats d’une activité de communication et ses principaux enseignements. Des rapports d’évaluation sont généralement produits dans 82 % des équipes de communication couvertes par l’Enquête 2025 de l’OCDE auprès des responsables de la communication gouvernementale. Dans environ la moitié de ces institutions, ils sont délibérément utilisés pour tirer des enseignements de l’expérience et servir de base aux décisions futures.
Plusieurs gouvernements de l’OCDE, dont ceux du Royaume-Uni et de la Nouvelle-Galles du Sud en Australie, ont élaboré des modèles de rapports d’évaluation afin de garantir des normes communes en la matière. En Australie et au Canada, les rapports des campagnes à gros budget sont également publiés à des fins de transparence et de responsabilisation.
La production de rapports analytiques de qualité est donc une bonne pratique qui devrait se généraliser dans les institutions publiques françaises et tirer le meilleur parti des efforts susmentionnés pour évaluer leur communication. Comme le montre le Graphique 2.9, les rapports d’évaluation sont déjà couramment disponibles et sont presque systématiquement partagés en interne. Le plus souvent, ils sont envoyés aux ministres, aux directeurs généraux et aux départements politiques dont les initiatives étaient censées être soutenues par les campagnes, et ce dans le but de montrer ce qui a été réalisé.
Les évaluations sont également déjà largement utilisées au sein des DICOM à des fins d’apprentissage. Dans la grande majorité des cas, les DICOM utilisent les rapports d’évaluation pour prendre des décisions concernant les campagnes en cours ou futures, y compris à des fins de comparaison. Toutefois, seul un tiers de ces rapports sont communiqués au SIG, contrairement à ce que prévoient les procédures d’agrément des marchés publics liés à des dispositifs de communication. Outre le respect de ces exigences, le partage des évaluations au niveau central pourrait contribuer à la mise en place des ressources d’analyse comparative entre les administrations ci-dessus et faciliter la diffusion des bonnes pratiques.
Graphique 2.9. Utilisation de l’évaluation pour l’établissement de rapports et la prise de décision
Copier le lien de Graphique 2.9. Utilisation de l’évaluation pour l’établissement de rapports et la prise de décisionPour les cinq dernières campagnes menées par votre ministère/agence, si une évaluation a été réalisée, comment a-t-elle été utilisée ?
Remarque : n=50 dispositifs, plusieurs réponses possibles. Pour la réponse « Le rapport d’évaluation a été envoyé à SIG » uniquement, la proportion est calculée sans le SIG, n=45 campagnes.
Source : enquête de l’OCDE sur les responsables de la communication du Gouvernement français au niveau des ministères et des agences, 2025.
Il est possible de s’appuyer sur ce bilan positif pour renforcer la manière dont les rapports sont produits afin de maximiser leur valeur pour une communication fondée sur des données et pour l’apprentissage. Comme indiqué précédemment, l’évaluation dans plusieurs DICOM se limite souvent aux rapports fournis par les agences de publicité ou les sociétés de recherche sociale, qui évaluent principalement la performance des éléments publicitaires d’une campagne et leur réception par les publics cibles. Ces rapports, en particulier ceux qui se concentrent sur les produits plutôt que sur les post-tests sur les résultats, sont limités lorsqu’il s’agit de tirer des enseignements et de les résumer par écrit. Une autre limite fréquente réside dans la seule présentation de métriques liées aux produits, au lieu des résultats et de l’impact potentiel d’une activité.
Le SIG a pris l’habitude de compiler l’évaluation de ses activités dans des rapports détaillés qui reprennent tous les éléments d’une campagne. Ces rapports décrivent généralement les activités en décomposant chaque élément de la campagne en fonction de ses objectifs, de son exécution et de ses résultats, en expliquant les raisons des approches choisies et les résultats obtenus.
Les rapports du SIG comprennent notamment une analyse de l’impact de la campagne sur le discours et l’opinion du public, que ce soit par le biais des résultats de post-tests ou de l’analyse des mentions numériques et médiatiques liées au thème de la campagne. Dans quelques cas pertinents, l’analyse note également des résultats sur le changement de comportement et l’impact sur les objectifs politiques. Cette partie des rapports d’évaluation fournit un aperçu précieux de la campagne et de ses effets.
Ces rapports constituent un modèle utile que les DICOM pourraient adapter à leurs pratiques afin de normaliser leurs rapports de campagne et les rendre plus analytiques. Le format utilisé par le SIG peut être renforcé avec des éléments axés sur l’apprentissage.
Par exemple, sur un échantillon de rapports d’évaluation du SIG examinés par le secrétariat de l’OCDE, un seul comportait une évaluation finale et une section sur les enseignements à tirer. L’inclusion d’une telle section dans chaque rapport, ou même son intégration dans une synthèse, permettrait de mettre en évidence les informations clés à retenir de l’exercice d’évaluation parmi un large éventail de détails et de points de données.
De même, les modèles de rapports d’évaluation pourraient aider les communicants à privilégier la clarté et la simplicité par rapport aux éléments très techniques des rapports d’évaluation typiques, qui sont difficiles à comprendre pour les non-communicants. De nombreux post-tests et rapports d’agences de publicité revêtent en effet des formats inappropriés pour les parties prenantes internes du Gouvernement. Comme indiqué plus haut, il est important de communiquer les résultats concrets et les KPI de manière à ce que ces parties prenantes puissent les comprendre.
Enfin, les rapports d’évaluation du SIG ont actuellement tendance à refléter les structures des équipes internes et à témoigner d’un mode de travail relativement cloisonné, malgré des progrès notables en matière de coordination et d’intégration au sein du service. Les entretiens ont confirmé que chaque équipe spécialisée ne suit globalement que les éléments de la campagne dont elle est responsable et manque parfois de visibilité sur la manière dont ses contributions sont utilisées ou sur ce que font les autres équipes. L’adoption d’une approche holistique pour rendre compte des résultats et de l’apprentissage pourrait ainsi contribuer à renforcer l’intégration entre les équipes et à les impliquer au-delà de leurs attributions immédiates.
Les experts et les praticiens du Gouvernement ont reconnu que chaque activité de communication est également porteuse d’enseignements importants sur la manière de gérer un projet, de collaborer entre institutions publiques et disciplines et de créer une dynamique d’équipe fructueuse. Les cadres d’évaluation de la communication de certains pays prévoient de ce fait une étape spécifique pour l’évaluation du processus et de la gestion de l’activité. C’est le cas au Canada, où la boîte à outils d’évaluation de l’Agence du revenu prévoit deux étapes distinctes pour examiner la manière dont le travail a été mené et en tirer des enseignements (Encadré 2.8).
La collaboration interministérielle et une meilleure intégration de toutes les disciplines de la communication au sein de chaque DICOM font l’objet d’efforts croissants, et l’intégration d’une telle approche dans le processus d’évaluation pourrait être un moyen d’atteindre ces objectifs. Les entretiens ont révélé que les communicants sont nombreux à connaître certaines problématiques, comme la prévalence de campagnes simultanées et concurrentes en période de saturation des médias. Toutefois, ces enseignements ne sont pas enregistrés ou prises en compte de manière formelle, même lorsqu’ils sont issus de campagnes peu performantes, d’où la répétition de mauvaises pratiques.
Encadré 2.8. L’Agence du revenu du Canada met l’accent sur l’apprentissage dans ses orientations en matière d’évaluation
Copier le lien de Encadré 2.8. L’Agence du revenu du Canada met l’accent sur l’apprentissage dans ses orientations en matière d’évaluationLa Direction des affaires publiques de l’Agence du revenu du Canada (ARC) a élaboré un guide d’évaluation simple et pratique en cinq étapes à l’intention des communicants :
1. Préparer l’évaluation de votre projet avant qu’il ne commence
2. Collecter les données
3. Analyser les données
4. Présenter les résultats
5. Obtenir l’agrément et la partager
Le guide contient des modèles pour demander des contributions à différentes équipes, des questionnaires et des documents de rapport que chaque communicant peut utiliser pour compléter chaque étape du processus.
La partie consacrée à la collecte de données prévoit de mesurer à la fois la gestion du projet et les processus. La gestion de projet est évaluée par le biais d’une enquête post-projet, soumise à tous les contributeurs au sein de la direction de la communication et dans d’autres directions de l’ARC. Cette enquête vise à tirer des enseignements pour la collaboration et est particulièrement utile pour favoriser une coopération plus efficace entre les acteurs politiques et ceux de la communication. Les résultats de l’enquête font partie de l’analyse globale présentée dans le cadre des rapports d’évaluation.
Les processus de communication sont évalués séparément lors d’une réunion « à chaud », organisée entre tous les contributeurs d’un projet vers la fin de celui-ci. Une feuille de travail spécifique est utilisée pour que chaque participant prépare ses réflexions et son retour d’information sur ce qui a bien fonctionné et ce qui pourrait être amélioré pour les projets similaires à venir.
Les orientations sur l’analyse requièrent en outre une contextualisation des résultats globaux de l’activité, afin d’obtenir des enseignements utiles. Il s’agit notamment de questions liées au processus comme : « Le choix du moment a-t-il pu avoir une incidence sur les résultats ? », « Les communications des autres équipes ont-elles pu avoir une incidence sur vos résultats ? », « Vos produits ont-ils incité vos collègues à modifier les leurs ? ».
Enfin, le guide invite ses utilisateurs à « proposer une rencontre et présenter formellement le rapport d’évaluation afin d’encourager une culture de l’évaluation et une communication réciproque » dans le cadre de la diffusion du rapport en interne.
Source : Agence du revenu du Canada, Direction générale des affaires publiques, Guide pratique : Évaluation des communications – Bonnes pratiques d’évaluation (document interne).
Autre élément commun aux principaux exemples d’orientations en matière d’évaluation, l’incitation à partager les rapports d’évaluation et à en discuter. Dans des pays comme le Royaume-Uni et le Canada, des référentiels interministériels de rapports d’évaluation aident les équipes à trouver des exemples et des points de référence pertinents pour étayer leur travail. En outre, les deux gouvernements proposent des possibilités d’échange entre pairs afin de faciliter le transfert d’enseignements et de bonnes pratiques. Les activités de cette nature alimentent les efforts de professionnalisation et de renforcement des capacités, ce qui constitue un autre levier essentiel pour l’intégration des meilleures pratiques d’évaluation dans les institutions publiques françaises.
Renforcer les capacités et la culture de l’évaluation
L’analyse et les recommandations dans cette section portent principalement sur les bonnes pratiques internationales en matière de modèle MEL et sur la manière de les intégrer. Une condition préalable à l’adoption généralisée des bonnes pratiques est de doter les communicants de capacités et de compétences suffisantes. De ce fait, les recommandations ci-dessus concernant la mise en place d’un cadre global de modèle MEL et des outils nécessaires à son utilisation doivent être complétées par des actions visant à diffuser les connaissances, les compétences et la culture nécessaires à l’intégration de ce modèle auprès des communicants.
Le déficit de compétences et de culture en matière de communication fondée sur les données est une problématique dans tout le secteur et à l’échelle internationale (Zerfass, Verčič and Volk, 2017[13]; OECD, 2021[1]). Les communicants des pays de l’OCDE interrogés dans le cadre de cette étude ont confirmé les conclusions du rapport international de l’OCDE (2021[1]) concernant un manque de compétences qui entrave l’évaluation de leur travail. Ils ont également fait état de difficultés à recruter et à garder du personnel doté de solides compétences en matière de données et d’analyse, un profil hautement recherché (OECD, 2023[14]). Il est également fréquent que les équipes s’appuient sur un soutien externe pour effectuer les mesures et l’évaluation (certaines institutions publiques ont indiqué qu’elles le faisaient également par souci d’indépendance et d’objectivité de l’évaluation).
On retrouve un schéma similaire dans les DICOM françaises. Comme indiqué plus haut (Graphique 2.5), plusieurs ministères ont souligné que le manque de compétences et de personnel constituait un obstacle à l’évaluation. Ces facteurs s’ajoutent aux éléments culturels, à savoir le scepticisme quant à la capacité d’impact tangible de la communication et la préférence de certains d’évaluer uniquement la portée et la visibilité (bien que, par contraste, certaines personnes interrogées aient exprimé un réel désir de mesurer davantage l’impact en matière de politique publique).
Les DICOM dépendent également en grande partie de fournisseurs externes pour l’évaluation, bien que plus de la moitié d’entre elles aient une personne ou une équipe chargée de cette tâche, comme le montre le Graphique 2.10. Malgré cela, les entretiens ont révélé que, le plus souvent, ce ne sont pas des équipes d’évaluation internes au département de la communication, ce qui limite le soutien qu’elles peuvent apporter aux efforts systématiques d’évaluation des campagnes et d’autres activités.
Comme indiqué, les post-tests standardisés constituent la principale méthode d’évaluation des résultats. Ceux-ci viennent s’ajouter aux rapports de performance (et autres rapports similaires) élaborés par les contractants chargés de la mise en œuvre ou de l’évaluation de campagnes de communication. Toutefois, les entretiens ont montré que de nombreux communicants manquent de confiance et d’expertise pour examiner et remettre en question les approches et les résultats des fournisseurs externes.
Avec la consolidation du processus de passation des marchés publics de communication, le SIG peut s’assurer du respect de ces standards par les prestataires externes, qui jouent un rôle important dans la qualité de la mesure et de l’évaluation dans les institutions publiques françaises. Tout de même, il revient aux communicants eux-mêmes de développer les compétences nécessaires pour évaluer de manière critique les données et de savoir les appliquer au moment de la définition des activités, de la sélection des objectifs SMART à la définition des KPI.
Les efforts visant à renforcer les capacités et la culture de l’évaluation pourraient donc donner la priorité aux compétences spécialisées dans la conception et l’évaluation de stratégies de communication fondées sur des données, en s’efforçant d’aller au-delà des indicateurs liés aux produits avec lesquels les DICOM sont généralement à l’aise. En même temps, la professionnalisation de la fonction de communication nécessiterait également que tout le personnel concerné dispose de compétences de base pour l’analyse critique des données.
Graphique 2.10. Capacités internes de mesure et d’évaluation
Copier le lien de Graphique 2.10. Capacités internes de mesure et d’évaluationVotre ministère/organisme a-t-il une personne ou une équipe chargée de la mesure et de l’évaluation et possédant les compétences suivantes : méthodologie de recherche, analyse statistique, conception de l’évaluation et analyse critique ?
Remarque : n=10 services, réponse unique. Les réponses du SIG sont incluses dans la rubrique « Ministères ». La formulation complète de « Non, mais nous externalisons » était « Non, mais nous externalisons la mesure et l’évaluation auprès de prestataires ayant cette expertise ».
Source : enquête de l’OCDE sur les responsables de la communication du Gouvernement français au niveau des ministères et des agences, 2025.
Les efforts de professionnalisation devraient également viser l’échelon des dirigeants afin de renforcer la prise de décision stratégique et d’améliorer les méthodes permettant de conseiller et de gérer efficacement les parties prenantes internes. Comme discuté dans le chapitre suivant, les objectifs, les attentes et les budgets des campagnes sont souvent imposés aux services de communication par les directeurs généraux, les cabinets ministériels et les équipes chargées des politiques publiques. Ces contraintes sont apparues comme le principal obstacle à une communication plus efficace et plus stratégique. Pour y remédier, il conviendrait de doter les communicants seniors des compétences de gestion ascendante nécessaires pour conseiller efficacement les parties prenantes.
Le SIG propose toute une série de programmes et d’initiatives à cet effet. Quatre leviers principaux ont ainsi été mis en place au cours des dernières années pour professionnaliser et mieux intégrer la communication publique : a) l’introduction de standards et d’outils communs ; b) la formation de réseaux interministériels spécifiques à une discipline ;4 c) une offre de formations en cours d’élaboration, comprenant un apprentissage en ligne et des ateliers techniques ; et d) un programme d’événements et de mise en réseau visant à consolider la communication publique en un secteur unique à tous les niveaux du Gouvernement. Il s’agit notamment de tables rondes et d’événements réguliers visant spécifiquement à s’attaquer aux problématiques de performance et d’évaluation. Ces initiatives sont en outre complétées par la centralisation des achats auprès d’un ensemble commun de fournisseurs ; la pratique vient contribuer à harmoniser les standards et les pratiques sous la houlette du SIG.
Les initiatives mises en place et en cours de développement reflètent les pratiques de pointe observées dans les gouvernements de l’OCDE pour professionnaliser les équipes et faciliter l’adoption des bonnes pratiques. L’une des principales observations issues des entretiens internationaux porte sur l’importance de fournir des canaux durables pour l’échange informel et l’apprentissage entre pairs afin de soutenir le partage, la mise en réseau et l’apprentissage à partir de la base. À cette fin, certains pays comme la Belgique, le Canada et le Royaume-Uni ont mis en place des communautés de pratique, dont les efforts de professionnalisation (voir Encadré 2.9) leur valent d’être reconnues comme des plateformes efficaces.
Encadré 2.9. Réseaux et communautés de pratique au Canada et au Royaume-Uni
Copier le lien de Encadré 2.9. Réseaux et communautés de pratique au Canada et au Royaume-UniBureau de la collectivité des communications et Communauté de pratique de l’évaluation
Les communicants du gouvernement canadien sont soutenus par le Bureau de la collectivité des communications (BCC), une structure centrale entièrement consacrée à la professionnalisation de la fonction et à la promotion d’une communauté professionnelle active.
Le BCC soutient de nombreuses communautés de pratique, qui sont dirigées par des experts volontaires en communication au sein des ministères et des agences. La communauté de pratique de l’évaluation a été créée en 2018 avec 30 membres, et en compte désormais près de 500.
La communauté organise régulièrement des sessions d’apprentissage virtuelles, au cours desquelles les membres peuvent partager des évaluations significatives, des méthodes et des bonnes pratiques. Cette démarche est combinée à la mise à disposition de ressources, d’articles et d’études de cas via le portail en ligne du BCC.
Pour apporter soutien et conseils spécifiques aux membres, les responsables de la communauté tiennent également des permanences régulières avec plages horaires fixes.
Chefs de discipline au Royaume-Uni
Dans le service de Communication du Gouvernement du Royaume-Uni, les communautés de pratique sont organisées en sept disciplines de communication : Données et insight, médias, communications stratégiques, communications interne, affaires extérieures, marketing et numérique. Ces rôles informels ont été récemment officialisés.
Les chefs de discipline viennent de tous les ministères et sont responsables de l’amélioration continue et du développement professionnel de leur domaine d’expertise. Ils jouent un rôle de premier plan dans la mise en œuvre de la stratégie de réforme globale du GCUK en ce qui concerne les objectifs qui touchent à leurs domaines respectifs.
Les chefs de discipline pour les données et les insights dirigent des réunions mensuelles de praticiens en données, insights et évaluation dans chaque service gouvernemental, selon un ordre du jour défini collectivement. Ce réseau organise également des groupes de travail spécifiques autour de projets interministériels, comme le développement d’outils et d’orientations.
Source : Bureau de la collectivité des communications (2025), https://www.canada.ca/fr/gouvernement/systeme/communications-gouvernementales/bureau-collectivite-communications.html ; Services Communication du gouvernement (2025), https://gcs.civilservice.gov.uk/heads-of-disciplines/#:~:text=There%20are%207%20GCS%20communication,appointed%20to%20represent%20each%20discipline ; Entretiens de l’OCDE avec des pairs du Canada et du Royaume-Uni.
Si des communautés de pratique existent en France, il n’y a pas de communauté consacrée au modèle MEL. En effet, les disciplines et structures internes en place au sein du SIG et des DICOM comportent toutes certains aspects du modèle MEL. Il serait toutefois utile de créer une telle communauté spécialisée ou de charger un réseau existant d’intégrer cette discipline. Par exemple, la discipline Insight et Analyse bénéficie déjà d’un réseau informel actif qui se réunit tous les trimestres et échange régulièrement sur les projets en cours et les meilleures pratiques. Compte tenu de leur proximité avec les données et l’analyse, ce groupe pourrait être bien placé pour diriger une communauté de pratique sur le modèle MEL.
Le travail de ces communautés tend à être soutenu par des intranets et des plateformes interministérielles pour le partage d’orientations, d’études de cas, de matériel de formation et de ressources liées à toutes les disciplines de la communication. En France, le Kiosque en ligne développé par le SIG pour les communicants du secteur public est destiné à jouer ce rôle et à devenir le référentiel central des informations relatives aux campagnes de chaque ministère, agence ou collectivité territoriale. En développant le Kiosque, en y intégrant les conseils et les outils proposés dans ce chapitre et en encourageant son utilisation systématique par les équipes de l’ensemble du Gouvernement, le SIG peut soutenir les objectifs d’intégration des bonnes pratiques en matière de MEL.
Enfin, la pratique du mouvement temporaire ou à long terme du personnel entre les institutions publiques, par exemple par le biais de détachements, a également été soulignée comme une méthode efficace pour transférer les bonnes pratiques, renforcer les capacités avancées et soutenir la collaboration entre les gouvernements. Le Royaume-Uni a expérimenté un programme similaire pour la mobilité du personnel dans le but de favoriser la cohésion et la cohérence des compétences et des processus au sein des services de communication du gouvernement.
Principales conclusions et recommandations
Copier le lien de Principales conclusions et recommandationsL’évaluation de la communication est régulièrement pratiquée dans les DICOM françaises et dépasse largement ce que l’on trouve dans la majorité des pays de l’OCDE. Toutefois, sa profondeur et son utilisation stratégique restent limitées. Les DICOM françaises pourraient élever leurs normes MEL afin de s’aligner sur celles des gouvernements et des organisations en tête de ce domaine. Cela contribuerait à renforcer l’approche stratégique de la communication, fondée sur des données, afin de consolider la récente vague de réformes de la fonction en France.
La plupart des évaluations se concentrent sur des métriques liées aux produits comme la portée et les impressions, alors que les résultats à long terme et l’impact politique ne sont que rarement évalués. Les rapports d’évaluation se limitent souvent à des données sur les performances publicitaires, et les post-tests sont sous-utilisés en raison de contraintes budgétaires. Les activités de communication organique, comme les réseaux sociaux ou les partenariats, sont évaluées de manière irrégulière.
Dans l’ensemble, les agences publiques étudiées tendent à évaluer leurs activités de manière plus approfondie, grâce à un plan de communication plus prévisible et axé sur le service. Les ministères, à l’inverse, présentent les écarts les plus importants, souvent en raison de contraintes temporelles, budgétaires et politiques plus fortes.
Les objectifs de communication sont souvent vagues ou trop axés sur la visibilité. Des objectifs mal définis sont la principale raison pour laquelle les communicants ont du mal à prouver leur impact par rapport aux objectifs politiques.
Pour définir et mesurer les objectifs SMART, les ministères et les agences doivent systématiquement identifier et accéder aux données de base et ex-post relatives aux services, aux programmes ou aux efforts de recrutement que leurs campagnes visent à soutenir. En élargissant l’accès aux référentiels de données et aux tableaux de bord existants, le SIG peut aider les services de communication à fixer des objectifs plus réalistes et à comparer les performances d’une campagne à l’autre. Cela pourrait également favoriser une prise de décision davantage fondée sur des données.
Le processus d’agrément des campagnes du SIG a contribué à institutionnaliser l’évaluation en exigeant des KPI et des post-tests pour les campagnes dépassant certains seuils budgétaires. En continuant à renforcer ce processus d’agrément en tant qu’outil de planification et de responsabilisation, le SIG peut contribuer à intégrer plus profondément l’évaluation dans les flux de travail de la communication. Le renforcement de la conformité (par exemple en conditionnant les agréments futurs à l’achèvement de rapports d’évaluation) pourrait encore améliorer la crédibilité et l’utilité du processus pour le modèle MEL.
En s’appuyant sur ce processus d’agrément, le SIG pourrait favoriser l’adoption de plusieurs bonnes pratiques en la matière :
Une catégorisation plus précise des objectifs des campagnes, afin de réduire la prévalence des campagnes d’information ou à double objectif au profit de campagnes plus axées sur les résultats.
En s’inspirant des pratiques internationales, le SIG pourrait concevoir de nouveaux moyens d’utiliser le processus d’agrément pour renforcer l’alignement sur les cycles annuels de planification de la communication. Cela pourrait contribuer à améliorer la cohérence entre les ministères, à réduire les doubles emplois, à optimiser le calendrier des campagnes et, en fin de compte, à renforcer l’impact.
En promouvant l’idée de réserver une partie des budgets de campagne (à titre indicatif, 5 à 10 %) aux activités d’évaluation, le SIG peut contribuer à garantir que les équipes disposent des ressources nécessaires pour les pré-tests, les post-tests et l’analyse d’impact, des domaines qui sont souvent sous-financés.
Les DICOM n’ont souvent pas accès aux données pertinentes et n’ont pas la capacité en interne de mener des évaluations solides. De nombreux communicants s’appuient sur des fournisseurs externes et indiquent être mal à l’aise avec l’interprétation des données. En outre, les entretiens ont mis en évidence la nécessité d’instaurer une culture de l’apprentissage. Ces résultats soulignent l’intérêt d’introduire des orientations complètes relatives au modèle MEL, ainsi que des initiatives visant à renforcer les capacités et la culture en la matière dans l’ensemble des DICOM.
Le chapitre recommande donc que le SIG développe un cadre commun de modèle MEL, comprenant des matrices d’indicateurs, des modèles et des orientations pratiques en accord avec les pratiques de pointe dans l’ensemble de l’OCDE. Cela fournirait un point de référence commun à tous les services de communication et favoriserait des pratiques d’évaluation plus cohérentes.
Ce cadre pourrait garantir que les KPI couvrent l’ensemble des activités de communication, y compris les composantes non payantes et organiques. L’inclusion d’indicateurs de résultats et d’impact dans les métriques de performance pourrait aider les équipes à mieux aligner leurs efforts sur les objectifs stratégiques.
Les pratiques du SIG en matière de suivi des performances des activités de communication organique et non payées pourraient servir de référence à d’autres institutions publiques et être améliorées grâce à ce cadre.
En s’inspirant des meilleures pratiques internationales, le SIG pourrait promouvoir l’idée selon laquelle la majorité des efforts d’évaluation devrait être déployée avant le lancement complet de la campagne. Mettre l’accent sur l’évaluation formative et l’évaluation des processus, comme les tests préliminaires et le suivi précoce des KPI, peut aider les équipes à affiner leurs stratégies et à éviter des désalignements coûteux.
Un cadre MEL devrait enfin aborder les éléments de la gestion des processus et des projets susceptibles de contribuer à améliorer la collaboration au sein des institutions publiques et entre elles.
S’appuyer sur les initiatives actuelles de professionnalisation favoriserait l’adoption du cadre et des pratiques susmentionnés pour le cadre MEL. Le SIG pourrait diriger l’offre de formation consacrée au modèle MEL et établir une communauté de pratique en la matière afin de développer une communauté interministérielle engagée dans le soutien des pairs.
Des efforts de renforcement des capacités pourraient également cibler les communicants principaux en leur proposant une formation en leadership stratégique et en gestion ascendante. Ils seraient ainsi mieux à même de conseiller les parties prenantes internes, comme les directeurs généraux et les cabinets ministériels, dont l’influence sur les objectifs et les budgets des campagnes limite souvent la portée stratégique des efforts de communication.
Si les rapports d’évaluation sont généralement partagés en interne, ils sont rarement utilisés pour tirer des enseignements au-delà de la communication. Les pratiques de reporting du SIG fournissent un modèle pour des évaluations plus analytiques et intégrées. Ses rapports pourraient toutefois être mieux adaptés aux publics auxquels ils s’adressent : certains pourraient couvrir un ensemble plus restreint de résultats et de KPI. Cela permettrait en effet de mieux démontrer la valeur de la communication, en des termes qui parleront plus aux décideurs politiques et responsables de programmes.
En outre, la participation de non-communicants (comme les responsables politiques) à la définition des objectifs et des indicateurs pourrait également améliorer l’alignement avec les objectifs institutionnels et la compréhension de la valeur de la communication.
Références
[12] AMEC (2020), Barcelona Principles 3.0, https://amecorg.com/wp-content/uploads/2020/07/BP-Presentation-3.0-AMEC-webinar-10.07.20.pdf.
[5] Association for Measurement and Evaluation of Communication (2025), Interactive Framework, https://amecorg.com/amecframework/framework/interactive-framework/.
[8] Buhmann, A. and F. Likely (2018), Evaluation and Measurement in Strategic Communication, Wiley-Blackwell, https://www.academia.edu/35851832/Evaluation_and_measurement_in_strategic_communication.
[6] European Commission (2024), Communication Monitoring Indicators - Supporting Guide, https://commission.europa.eu/document/download/b1ce0367-aec1-4018-b012-d131fa160284_en?filename=communication_network_indicators_supporting_guide.pdf.
[9] Falkheimer, J. and M. Heide (eds.) (2022), Measurement and Evaluation: Framework, Methods, and Critique, https://doi.org/10.4337/9781800379893.00039.
[10] GCS (2025), Evaluating low/no-cost communications, https://gcs.civilservice.gov.uk/publications/evaluating-low-no-cost-communications/ (accessed on 4 April 2025).
[2] GCS (2025), The GCS Evaluation Cycle, https://gcs.civilservice.gov.uk/wp-content/uploads/2024/02/2024-02-13-GCS-Evaluation-Cycle-FINAL-OFFICIAL.pdf (accessed on 2 April 2025).
[7] Macnamara, J. (2024), Jim Macnamara’s MEL Manual for Public Communication.
[11] Macnamara, J. (2023), Measurement, evaluation + learning (MEL): New approaches for insights, outcomes, impact., Routledge.
[3] New South Wales Government (2020), NSW Government evaluation framework for advertising and communications, https://www.nsw.gov.au/sites/default/files/2020-03/Evaluation%20Framework%20Implementation%20Matrix.pdf (accessed on 2 April 2025).
[14] OECD (2023), Public Communication Scan of the United Kingdom: Using Public Communication to Strengthen Democracy and Public Trust, OECD Publishing, https://doi.org/10.1787/bc4a57b3-en.
[1] OECD (2021), OECD Report on Public Communication: The Global Context and the Way Forward, OECD Publishing.
[4] SIG (2024), Note d’Application - mise en œuvre de la circulaire du Premier ministre n°6453/SG.
[13] Zerfass, A., D. Verčič and S. Volk (2017), “Communication evaluation and measurement: Skills, practices and utilization in European organizations”, Corporate Communications: An International Journal, Vol. 22(1), pp. 2-18, https://doi.org/10.1108/CCIJ-08-2016-0056.
Notes
Copier le lien de Notes← 1. Le gouvernement de la Nouvelle-Galles du Sud a désormais adopté le cadre d’évaluation AMEC.
← 2. Un post-test est une méthode reposant généralement sur une enquête menée à la fin d’un dispositif de communication ou de publicité pour évaluer l’exposition d’une population cible à un message, le niveau de rétention de l’information, ainsi que le degré de changement d’avis et les éventuelles intentions d’action à la suite de la diffusion du message.
← 3. Un pré-test est effectué avant le lancement d’une campagne et mesure la compréhension et l’adhésion à l’activité, ce qui permet de confirmer l’efficacité de la campagne et de corriger tout malentendu avant une distribution plus large.
← 4. Les réseaux regroupent des professionnels dans chacun des domaines suivants : préfectures, partenariats, campagnes, Community Managers, suivi et analyse, système de conception de l’État, référents de la Marque de l’État, analyse centrée sur les annonces et les sites, crise, accessibilité.