Les annonceurs numériques veulent des rapports fiables et dignes de confiance de la part des grandes plateformes de médias sociaux pour isoler leurs marques des contenus nuisibles et peu recommandables publiés sur leurs sites et applications. À l’heure actuelle, deux grands organismes de l’industrie – GARM et MRC – travaillent ensemble et dans des efforts parallèles pour faire évoluer l’industrie à l’échelle mondiale vers des approches vérifiées et normalisées pour mesurer les objectifs de sécurité de la marque en matière de publicité sur les plateformes sociales.
Voici un aperçu de qui ils sont, pourquoi ils travaillent ensemble et où ils en sont dans ce processus lent.
Qui est GARM et quel est son lien avec la sécurité des marques sur les plateformes ?
GARM est l’abréviation de Global Alliance for Responsible Media. Il s’agit d’un partenariat entre les plateformes de médias sociaux – YouTube, Facebook, Instagram, Twitter, TikTok, Snap et Pinterest – de grands groupes mondiaux de commerce publicitaire comme Interactive Advertising Bureau et les 4A et des marques de P&G et Unilever à Dell et Chanel. Formé en 2019 sous les auspices de la Fédération mondiale des annonceurs, l’objectif de l’organisation est de résoudre les problèmes liés à la sécurité des marques qui émergent lorsque la publicité est adjacente à et soutient financièrement, même indirectement, des contenus préjudiciables impliquant des sujets tels que les images violentes, les relations sexuelles avec des enfants. l’exploitation, la désinformation et les discours de haine ou les armes et les drogues. En avril, GARM a publié son premier rapport montrant ce qui se passe selon les mesures de sécurité de la marque sur ces plateformes. Par exemple, le rapport – qui a montré que plus de 5,3 milliards d’éléments de contenu ont été supprimés par les plateformes participantes au cours de l’année précédant la publication – comprend des données basées sur deux nouvelles mesures conçues par les partenaires de GARM, le taux de visionnage infractionnel et le taux d’erreur de sécurité publicitaire.
Qui est MRC ?
Le Media Rating Council, ou MRC, a été créé au début des années 1960, au début de la diffusion télévisée. Un groupe financé par l’industrie avec beaucoup des mêmes types de membres que GARM, il a ses racines dans la vérification des métriques et des processus de mesure des médias d’entreprises, y compris des fournisseurs de mesure indépendants ainsi que des plateformes numériques. Au fil du temps, la vérification de MRC s’est étendue des classements Nielsen TV à l’ancienne aux processus de sécurité de la marque au niveau du contenu pour les publicités vidéo, ainsi que des mesures d’impression d’annonces display qui n’ont rien à voir avec la sécurité de la marque.
Alors, pourquoi GARM veut-il travailler avec MRC en matière de sécurité de la marque ?
Considérez GARM et MRC comme des partenaires dans une mission diplomatique délicate pour encourager doucement – et faire pression avec la force que seuls les dollars publicitaires peuvent appliquer – les plateformes pour qu’elles acceptent une surveillance extérieure de leurs rapports sur la sécurité et la transparence de leur marque.
Tout d’abord, un peu de contexte : à l’heure actuelle, les données fournies par les plateformes pour les rapports de GARM montrant ce qui se passe selon les mesures de sécurité de la marque sur leurs sites ne sont pas vérifiées par une entité indépendante. Au lieu de cela, les plates-formes ont auto-déclaré les informations pour ce premier rapport GARM. Et dans le cas de certaines plateformes telles que Facebook, qui publie déjà ses propres normes de contenu et rapports d’application, une grande partie des mêmes données fournies au GARM proviennent en fait de rapports de transparence que les entreprises publient déjà.
Le GARM souhaite que les données fournies par les plateformes pour les rapports du GARM soient vérifiées par un organisme indépendant. Parce que la MRC supervise déjà ce genre de choses, c’est le choix naturel.
Mais les préoccupations de GARM ne se limitent pas aux données des plates-formes, n’est-ce pas ?
Ouais. GARM pousse tous ses partenaires de plateforme à s’engager à trois niveaux d’audits de sécurité de la marque :
- Contrôles et opérations de sécurité de la marque : ce niveau d’audit évaluerait s’il existe suffisamment de contrôles et de processus internes en place pour mesurer les directives de sécurité de la marque.
- Intégrations de la sécurité de la marque avec des fournisseurs externes : cet audit examinerait les processus mis en place par les plates-formes pour des domaines tels que le transfert de données approprié lors de l’intégration d’entreprises tierces de mesure des publicités telles que DoubleVerify, Moat ou IAS.
- Rapports sur la transparence de la sécurité de la marque : ce niveau d’audit porte sur les données de sécurité de la marque fournies par les plateformes utilisées dans les rapports GARM
Il convient de noter que MRC intègre des contrôles et des opérations en tant que composants à part entière de tous ses audits, de la sécurité de la marque et autres, tandis que GARM considère les contrôles internes des entreprises de plate-forme comme des composants d’audit de sécurité de la marque distincts des deux autres catégories. Ainsi, parfois, MRC et GARM utilisent des termes différents pour divers aspects des audits, ce qui peut ajouter à la complexité de ces problèmes.
Alors, où en sont les plates-formes dans ce processus GARM-MRC ?
La plupart des plates-formes participant au GARM n’ont pas encore accepté d’audit externe des mesures de sécurité de la marque GARM ou MRC. Mais voici où il y a du mouvement en ce qui concerne GARM :
Facebook: Bien que cette histoire rapportait à l’origine que Facebook avait accepté que le MRC réalise un audit de ses rapports sur la transparence de la sécurité des marques pour GARM, la société a déclaré à Digiday après la publication de cet article qu’elle ne s’était pas engagée à ce que le MRC réalise un audit de ses rapports sur la transparence de la sécurité des marques, qui pourrait devenir une composante d’un audit des mesures liées à la sécurité de la marque qui devrait être lancé avec le MRC plus tard en juin.
Et un autre processus est en cours en ce qui concerne les rapports sur les normes d’application du contenu plus orientés vers les consommateurs et les médias que Facebook publie déjà. Le 19 mai, Facebook a annoncé avoir sélectionné EY (Ernst & Young) pour mener un audit afin de valider son évaluation des métriques utilisées pour ses rapports CESR auto-publiés. C’est important car EY gère la plupart des audits des métriques publicitaires de la plate-forme que MRC supervise. En effet, MRC engage en fait d’autres cabinets d’audit, dont Deloitte et EY, pour mener à bien les rouages de son audit.
Youtube: YouTube est également plus engagé dans le processus de mesure de la sécurité de la marque que d’autres plates-formes, mais doit encore s’engager dans un audit des rapports de transparence de la sécurité de la marque qu’il fournit à GARM. La société a cependant été accréditée par le MRC pour les processus de sécurité de la marque YouTube au niveau du contenu pour la diffusion d’annonces vidéo via les systèmes publicitaires Google et YouTube. L’année dernière, la plate-forme vidéo a commencé à travailler sur la mise à jour de ses processus de sécurité de la marque pour s’aligner sur les normes de GARM.
En général, c’est un processus fragmentaire et ces deux plateformes sont à des stades différents et l’abordent différemment. Pendant ce temps, aucune autre plate-forme ne s’est engagée publiquement à une quelconque forme de vérification indépendante des mesures de sécurité de la marque liées au GARM ou au MRC.
Alors, est-ce que quelque chose d’autre retarde le processus?
La réticence générale à participer à des audits indépendants qui nécessitent une inspection du traitement des données et de la technologie est un obstacle majeur pour toutes les plateformes. Mais la bureaucratie pourrait aussi ralentir un peu les choses. Jusqu’à ce que les exigences de rapport de GARM soient finalisées puis intégrées dans les normes et audits de sécurité de la marque de MRC, MRC ne peut pas commencer d’audit pour vérifier les données fournies par les plateformes pour les rapports de GARM.
Cela n’a pas encore été fait selon la MRC.
Cet article a été mis à jour pour indiquer que Facebook ne s’est pas engagé à ce que le MRC réalise un audit de ses rapports sur la transparence de la sécurité des marques pour GARM. Une version antérieure de cette histoire indiquait que Facebook s’était engagé dans un tel audit, mais après sa publication, un porte-parole de Facebook a déclaré à Digiday qu’il n’avait accepté qu’un élément d’audit de la sécurité de la marque qui n’inclut pas les rapports de transparence qu’il fournit à GARM..