Clément Bourdon
Fondateur @ Webloom.
Après un parcours remarqué dans le digital, notamment à la Direction du Numérique de France Télévisons et en tant que Mentor en stratégie digitale pour l’incubateur HEC, à la Station F. Clément Bourdon a fondé Webloom, SEO/SEA pour aider les entreprises à trouver LA stratégie, celle qui peut ouvrir les portes de Google !
Dans cette interview, Clément nous partage les solutions qu’il a identifiées pour continuer à piloter efficacement ses opérations d’acquisition dans un contexte RGPD compliant.
Sommaire de l’ITW :
L’impact du RGPD sur les campagnes d’acquisition
Hello Clément, merci de nous accorder un peu de ton temps pour cette interview ! On peut peut-être commencer par rappeler les obligations du RGPD ? Même si j’espère que les sites de nos lecteurs sont bien déjà tous conformes !
Avec plaisir, depuis le 1er avril 2021, tous les sites web devront proposer une gestion des cookies conforme aux exigences du RGPD et de la directive ePrivacy selon les lignes directrices établies par la CNIL.
Ces directives impliquent, tout bêtement, d’avoir un bandeau cookie sur son site internet qui va bloquer (si un visiteur choisit de les désactiver) :
- 1. Les trackers publicitaires que sont Google Ads et Facebook Ads
- 2. Les trackers de suivi de comportement, par exemple Google Analytics
Le consentement doit être éclairé, ce qui veut dire que l’utilisateur doit pouvoir comprendre facilement ce que va faire chaque cookie posé sur son navigateur. Y compris les cookies de tracking publicitaire…
“Le consentement doit être éclairé, ce qui veut dire que l’utilisateur doit pouvoir comprendre facilement ce que va faire chaque cookie posé sur son navigateur. Y compris les cookies de tracking publicitaire…”
Très clair ! Et quelles sont les pénalités en cas de non-conformité à ces obligations ?
Si jamais on ne fait pas ça, les lettres de relance sont envoyées par la CNIL lors d’un audit. Et le risque est d’avoir une amende sur le chiffre d’affaires assez élevé.
En plus de ça, on se dirige vers un monde moins riche en données que les 20 ans qu’on a passées dans le digital. Donc, se préparer à cette perte de données en testant différents bandeaux cookies, ce n’est pas seulement pour éviter une amende, c’est aussi être en avance face à d’autres annonceurs dans un monde où les décisions s’appuient sur moins de datas.
“…se préparer à cette perte de données en testant différents bandeaux cookies…c’est aussi être en avance face à d’autres annonceurs dans un monde où les décisions s’appuient sur moins de data.”
Plus concrètement, quel est l’impact de cette perte de données sur les opérations d’acquisition que tu mènes pour le compte de tes clients ?
Aujourd’hui, quand tu lances une publicité, que ce soit sur Google Ads ou sur Facebook Ads, les performances de ces publicités viennent principalement du fait qu’elles s’appuient sur des algorithmes qui décident qui doit voir la publicité.
On a de moins en moins la capacité d’envoyer une publicité à une personne en fonction d’un comportement que l’on définit. Les régies, les plateformes publicitaires ont plutôt tendance à nous dire : « Laisse-moi décider à ta place », mes algorithmes permettent d’identifier des signaux faibles, une multitude de facteurs que toi tu ne vois pas et qui semblent déterminer que certaines personnes sont plus aptes à acheter qu’une autre.
Ces signaux (on parle de plus de 2000 facteurs pour Facebook Ads) rendent ces algorithmes plus puissants que l’être humain, et donc de faire des meilleurs choix quand il s’agit de diffuser une annonce publicitaire. Or, cet algorithme se nourrit principalement de volumes. Plus on lui envoie d’informations, plus il est pertinent.
“…d’ici six mois, un an, on risque d’avoir des algorithmes moins performants, qui auront moins de volume pour identifier des internautes en recherche d’un service”
Et on vient de le rappeler, le bandeau cookie vise à permettre aux visiteurs de refuser de nourrir ces différents algorithmes. Donc d’ici six mois, un an, on risque d’avoir des algorithmes moins performants, qui auront moins de volume pour identifier des internautes en recherche d’un service.
« la part de refus via les bandeaux cookies se situerait entre 30 et 40%, depuis le 1er avril.”
Ce sont donc les performances directes des campagnes gérées via ces algorithmes qui pourraient être tirés vers le bas dans un futur proche. D’après Le Journal du Net, la part de refus via les bandeaux cookies se situerait entre 30 et 40%, depuis le 1er avril. Une perte donc considérable pour les régies.
Contactez Cartelis
pour enfin capitaliser sur vos données clients.
Cartelis vous accompagne dans le cadrage et le déploiement d'une stratégie data et CRM vraiment impactante.
Analyse client, Choix des outils, Pilotage projet et Accompagnement opérationnel.
Prendre contact avec CartelisLes solutions pour compenser la perte de données
Difficile d’imaginer ces géants ne pas trouver une solution pour remédier à cette perte, même s’il est encore un peu tôt, quelles sont les réponses apportées par Facebook et Google ?
Ils ont décidé de réagir en créant des outils spécialisés pour récupérer une partie de cette information ou du moins, la simuler. Facebook va essayer de la récupérer. Google va essayer de l’assimiler.
Au hasard…commençons par Google ?
L’outil développé par Google est le Google Consent Mode. Le principe est assez simple : quand un utilisateur n’accepte pas les cookies, on va le signaler à Google via un petit script supplémentaire qu’il faut ajouter sur chacune des pages d’un site Internet.
« L’outil développé par Google est le Google Consent Mode. Le principe est assez simple : quand un utilisateur n’accepte pas les cookies, on va le signaler à Google via un petit script supplémentaire qu’il faut ajouter sur chacune des pages d’un site Internet.”
Avec cette information, Google construit des modèles statistiques pour essayer de combler les données manquantes (les fameuses 30%) et de les rapatrier dans les campagnes publicitaires. L’intelligence artificielle estime le parcours d’un utilisateur qui a refusé le cookie afin de continuer à nourrir en data les algorithmes. On aura une partie de data « réelle » et une partie « simulée » à partir de comportements réels.
Le fonctionnement du Google Consent Mode (Source)
Ce nouveau module de Google est actuellement en bêta, mais les gros annonceurs commencent déjà à l’utiliser. D’ici quelques mois, on va pouvoir paramétrer, sur Google Tag Manager, un tag « Consent Mode » qui permet de suivre l’acceptation ou non et donc de savoir quelle part de ma donnée est réelle ou simulée.
Top ces infos « fraîches », je vois déjà nos lecteurs se ruer vers cette nouvelle option ! Et donc, en ce qui concerne Facebook ?
Facebook est en train de développer le Facebook Conversion API. C’est une façon différente de tracker un internaute lorsqu’il arrive sur un site internet après avoir cliqué sur une publicité Facebook. Ce tracking ne passe plus par les cookies mais par des serveurs.
« Facebook Conversion API…Ce tracking ne passe plus par les cookies mais par des serveurs.”
Le fonctionnement de Facebook Conversion API (Source)
Facebook va venir se connecter avec un CMS et à récupérer les informations liées au parcours d’achat de l’utilisateur non plus via un pixel mais de « serveur à serveur ». Facebook compose sur un navigateur, c’est une option un peu technique mais ça permet de sortir en partie de cette problématique et de continuer à tout suivre.
« La différence fondamentale avec les cookies réside dans le fait qu’on suive des comportements anonymisés et plus individualisés !”
Cette solution est légale aujourd’hui, et c’est pourquoi les commerçants sont déjà en train de switcher vers Facebook et de contourner la problématique de la perte de données.
Et selon toi, quelle approche te semble la plus pertinente à implémenter pour les annonceurs ?
Difficile, on manque de recul : ces solutions ont à peine 6 mois et peu de personnes les maîtrisent profondément d’un point de vue technique.
« L’idée, c’est de regarder ce que ça donne, de les tester et surtout de ne pas les considérer comme une solution miracle !”
L’idée, c’est de regarder ce que ça donne, de les tester et surtout de ne pas les considérer comme une solution miracle ! Ces features sont encore en bêta et sans être accompagnés par une agence, la plupart des annonceurs n’en entendraient même pas parler. Je pense qu’avant de penser à ça, il faut s’assurer d’avoir mis en place des solutions bien plus simples mais également efficaces.
Optimiser son bandeau cookies ?
Absolument ! C’est quelque chose que l’on oublie souvent, mais qui est extrêmement important : soigner son bandeau cookie. Soit en passant par une CMP qui propose des outils performants comme Axeptio ou en interne si on dispose des ressources nécessaires.
« Je peux notamment te partager les résultats bluffants d’un client qui a réussi à faire passer son taux de refus de 30 à 10% en jouant sur des couleurs agréables, de la pédagogie,”
Je peux notamment te partager les résultats bluffants d’un client qui a réussi à faire passer son taux de refus de 30 à 10% en jouant sur des couleurs agréables, de la pédagogie, qui revient vers l’utilisateur pour lui expliquer pourquoi il devrait donner son consentement.
Mettre en place des nouvelles façons de travailler
Au-delà de ces stratégies qui visent à maximiser le consentement, est-ce qu’on ne va pas aussi envisager des approches différentes ?
En tant qu’annonceur, si tu n’arrives pas à compenser la perte des informations pré « cookie-gate », il va être nécessaire de se tourner vers des nouvelles façons de travailler et de se rapprocher du back-office.
« …il va être nécessaire de se tourner vers des nouvelles façons de travailler et de se rapprocher du back-office.”
Concrètement, cela signifie faire des analyses de corrélation entre :
- Combien j’ai dépensé en termes budgétaires ?
- Combien ça va vraiment rapporter dans mon back-office ?
Pourquoi, parce que le back-office ne perd pas de données : une vente ou un formulaire qui arrive sur Hubspot te présente une donnée telle qu’elle existe vraiment.
Donc regarder d’un côté l’augmentation d’une dépense Facebook Ads et à droite l’évolution du CA Shopify va devenir une analyse de corrélation classique. On ne peut plus utiliser les interfaces publicitaires comme avant, donc on mène une analyse de corrélation entre la réalité du back-office et les dépenses publicitaires.
J’imagine que cette évolution doit faire aussi évoluer le rapport que vous avez avec vos clients ?
Exactement, comme l’interface publicitaire a moins d’importance qu’avant puisqu’elle ne peut plus donner toutes les informations, en tant qu’agence, je dois maintenant avoir une vision du back-office de mes clients pour savoir réellement ce qui s’est passé.
Ça se traduit aussi par plus de temps passé auprès de mes clients, une agence qui se contente de points mensuels aujourd’hui, dans un monde où 30% des ventes, des formulaires, des visites peuvent sortir des interfaces parce que les internautes les refusent, c’est une agence qui ne fait pas bien son job !
Préparer l’avenir : se préparer à la fin du ciblage personnalisé en 2022
Effectivement il est temps de se tourner vers de nouvelles approches, l’histoire va dans le sens d’une protection plus importante de la donnée utilisateur, quel est ton regard là-dessus ?
J’ai une conviction personnelle, c’est qu’on est actuellement sur des patchs. Aujourd’hui, les solutions que j’ai citées sont des « pansements » qu’on met sur une hémorragie de la data et on ne va pas s’en sortir. Il faut se préparer à partir de 2022, de 2023, à un monde qui sera beaucoup moins riche en data.
« …on est actuellement sur des patchs…Il faut se préparer à partir de 2020, de 2023, à un monde qui sera beaucoup moins riche en data.”
De nombreux éléments vont dans ce sens, notamment la fin des cookies tiers dans Google Chrome d’ici 2022. Dans le cadre de sa stratégie Privacy Sandbox, Google Chrome cessera de prendre en charge les cookies tiers d’ici 2022 (source).
Pour moi, ce sujet est le plus important, bien plus que l’apparition du bandeau cookie, car cela signifie que tous les acteurs qui utilisent des cookies tiers (comme Criteo, Amazon) et autres pour suivre le comportement utilisateurs entre plusieurs sites aujourd’hui, ne pourront plus le faire !
Je sens nos lecteurs frémir, j’espère que tu as une solution à nous proposer ?
On ne pourra plus donc faire du marketing ultra-individualisé comme aujourd’hui. C’est la mort du marketing individualisé et le renouveau du marketing contextuel.
« C’est la mort du marketing individualisé et le renouveau du marketing contextuel.”
C’est là-dessus que la plupart des grosses régies publicitaires ou les grosses agences vont. Et on peut citer Billom, une nouvelle régie qui ne fait que du contextuel et qui permet d’avoir des publicités très percutantes dans un environnement défini à l’avance. On ne cherche plus à cibler des individus mais une audience qui lit un contenu. Les métiers de planning stratégique vont revenir à la mode comme avant.
Très clair, et c’est ce que vous commencez à pitcher à vos clients ?
Pour le moment, on privilégie les solutions qu’on a évoquées pour récupérer le plus d’informations et en mettant en place des outils CRM marketing très propres pour « enbaser », avoir de l’email le plus possible et vivre longtemps sur la connaissance client, que nos clients vont avoir jusqu’à fin 2021.
Ensuite, effectivement, on explique que faire de l’inbound, avoir un bon SEO va permettre de sauver les acteurs dépendants du remarketing individualisé et que travailler ses pages de vente via le copywriting notamment.
Vous accompagnez des clients dans leur déploiement international, donc pour les pays hors UE, vous adoptez une approche « classique » ou pré « cookie gate » ?
On est bloqué en Europe par la CNIL et donc les institutions européennes, qui décident de protéger l’utilisateur autour de sa vie privée. Mais aux Etats-Unis, en ce moment, c’est Apple qui bloque le tracking de Facebook. Pour des problématiques business qui, in fine, apportent la même problématique.
« Les US connaissent une problématique similaire de perte de data, pas par les institutions mais par des guerres de concurrence entre les GAFAM.”
Les US connaissent une problématique similaire de perte de data, pas par les institutions mais par des guerres de concurrence entre les GAFAM. Il ne s’agit pas de la protection d’un utilisateur mais de maximiser l’exploitation de la data en interne (data sandbox). Concrètement, ces acteurs ont tellement d’utilisateurs enbasés qu’ils préfèrent vivre dessus que de partager ça avec d’autres personnes.
Quelles seront les conséquences pour notre marché selon toi ?
On va aussi vers un environnement où on va travailler chaque régie comme un monde à part. Par exemple, faire des pubs (facebook Ads) pour rediriger vers la boutique Facebook (Facebook Shop).
Aujourd’hui, on nous pousse à finalement continuer à faire de la pub, mais pour rester dans son environnement. Je pense que Google pareil quand Chrome n’aura plus de cookies tiers tout en continuant à faire du Google Ads, mais uniquement pour des personnes qui sont sur un navigateur Chrome, qui utilisent Google Maps et qui sont hébergées chez Google.
« La perte de data se fait au profit des GAFAM, on va devoir travailler uniquement avec eux, en leur faisant totalement confiance…”
Cette idée va devoir être répercutée plusieurs fois afin de créer des « verticales » GAFAM. Les annonceurs vont peut être faire plus de pub mais qui vont garder l’utilisateur dans l’écosystème Facebook et le pousser jusqu’au nouveau shop instagram lancé récemment aux US et dont les résultats sont impressionnants !
Le nouveau shop Instagram lancé aux US (Source)
Finalement, la perte de data se fait au profit des GAFAM, on va devoir travailler uniquement avec eux, en leur faisant totalement confiance, et ne plus suivre la totalité du parcours sur de multiples environnements.
Laisser un commentaire