Catégories
Digital analytics Produit

Product Management : indispensable à votre stratégie numérique

 

Ces dernières années on a vu fleurir dans les organisations des postes de Directeur produit et de « PM » ou Product Manager. Souvent, il s’agissait de postes « projet » « rhabillés ». Pourtant, ce n’est pas la même chose et la transition ne peut se faire sans accompagnement et sans un changement profond de la manière dont on conçoit les organisations web.

Qu’est ce que le Product Management

Ce qui est souvent compliqué à comprendre avec ce poste, c’est a la fois un métier et un ensemble de compétences. 

D’abord c’est un métier, tourné vers l’extérieur (l’utilisateur, le client) mais en interface avec l’interne (développeurs, métier, graphistes, UI et UX designers, rédacteurs, business developers, management). Son rôle est avant tout de piloter la correction de ce qui ne va pas et de créer de nouvelles fonctionnalités.

Pour réussir cela, la martingale est un tryptique produit/technicité et design. Si j’écris technicité, c’est parce qu’on ne parle pas ici de developpement dans le sens « exécution », mais bien dans celui de co-création. Ce n’est pas un hasard si les entreprises du digital les plus connues aujourd’hui sont des entreprises d’ingénieurs autant que de marketeurs ou de designers (l’exemple le plus frappant est sans doute Apple).

Ensuite, ce sont des compétences. En premier lieu, celles que l’on attend d’un chef de projet : planning, suivi de projet, animation du réseau de l’ensemble des contributeurs, reporting. Mais ce qui va être crucial, ce sont les compétences en analyse. Analyse des données issues de l’expérience utilisateur (tests utilisateur, questionnaires de satisfaction, retours du service client, …), analyse des usages (analytics, heatmaps, tunnels de conversion, …) et analyse des sources de trafic.

Enfin, ce sont des compétences humaines. Il s’agit d’imaginer, de construire, d’innover bien sûr, mais surtout d’aider et de soutenir son équipe pour créer le bon produit pour les bons utilisateurs. Il s’agit d’un poste où l’on peut en réalité générer une tonne de problèmes, ou au contraire assurer le plein succès d’une refonte.

La « Job Desc » du PM

Le travail au quotidien se résume en 5 tâches :

Faire en sorte que l’équipe fonctionne

Rassurer le management

Délivrer. De manière quantitative ET qualitative. On ne va pas se mentir, c’est la partie la plus compliquée du métier…

S’assurer que ce que l’on crée correspond à l’attente du public visé

– Définir la ligne directrice du produit et l’assumer

Ce sont principalement les 2 dernières tâches qui distinguent le responsable produit du chef de projet.

Le profil du bon Product Manager

C’est une sorte de mouton à 5 pattes. Il doit avoir beaucoup de qualités et de compétences.

– L’intelligence stratégique : voir loin, être ouvert sur les innovations et les initiatives tout autour de lui, même en dehors de son secteur d’activité, voir plus large que son propre métier, envisager les évolutions majeures et les tendances de fond.

– Des connaissances techniques. Elles sont de plus en plus indispensables chaque année qui passe en numérique : HTML, JS, langages de programmation, bases de données, aspects serveur,… Sans elles, il n’est plus possible aujourd’hui de faire les bons choix produit ni d’interagir avec tous les membres de l’équipe.

– De la sensibilité produit. D’autres appellent ça l’intuition, ou « le pif ». Ca ne s’apprend pas mais c’est indispensable…

Des compétences graphiques et UX

– Des compétences marketing acquisition et monétisation sur les leviers gratuits et payants

– Du leadership : c’est un métier de chef d’orchestre. Si le product Manager n’arrive pas à  emporter les gens avec lui, ça ne marche tout simplement pas…

– Des talents de communiquant : la gestion de produit, comme la gestion de projet c’est un métier d’interface. Il faut être capable de se mettre à la place de chacun dans l’équipe.

– Des capacités de production : il faut être capable de prioriser et de délivrer, donc de décider.

PM et PO, est-ce la même chose ?

De mon point de vue non. Le métier de Product Owner est un intitulé de poste lié à une méthode  de gestion de projet (Scrum). Sans le PO, un projet Scrum peut pas fonctionner. Le Scrum master quant à lui est le chef d’orchestre côté technique. 

En revanche, on peut très bien concevoir un projet parfait sur le plan Scrum et catastrophique sur le plan de l’expérience perçue par l’utilisateur. Il me semble que le PO est à la méthode Scrum ce que le chef de projet est à la méthode classique (dite de cycle en V). Le scope de compétences du PM est beaucoup plus large.

Le Product Manager dans l’organisation de la direction numérique

Il y a à mon sens deux écueils à éviter :

– La plus grande erreur me semble t’il, c’est de placer la direction produit sous la responsabilité de l’IT. C’est parfois aussi une erreur de la placer sous la direction du marketing. La meilleure position est souvent en dépendance directe de la direction générale. En effet, le PM doit faire les meilleurs choix pour l’utilisateur, il ne pourra parfois pas le faire sous la pression hiérarchique de l’IT ou du Business development.

– Une autre erreur est de calquer l’organisation produit sur l’organisation interne ou l’organisation technique (Backoffice, Frontoffice, etc.). L’organisation produit doit être mise en place en fonction des besoins utilisateur. Cela rend le poste de PM « transversal » très utile voire indispensable lorsque l’on a plusieurs sites pour gérer les éléments communs à tous les sites : footers, headers, comptes user, etc. Si la complexité fonctionnelle est importante, un duo chef de projet/responsable produit en transversal peut avoir beaucoup de sens.

Créer une direction produit

Pour réussir il faut fixer des objectifs ambitieux et savoir comment on va mesurer sa réussite dès le début. Il me semble que toute évolution produit non mesurable ne devrait pas être mise au planning. Ce sont les objectifs et les résultats qui doivent piloter l’organisation et les choix.

Créer une direction produit est absolument indispensable aujourd’hui. C’est sans doute le critère numéro 1 de réussite d’un projet numérique. Attention toutefois, intégrer une telle direction n’est pas une simple réorganisation, c’est un projet d’entreprise. C’est pour cela qu’il est souvent idéal de rattacher le/la directeur/trice produit au directeur du numérique directement. L’équipe dirigeante doit être prête à confier une partie importante de la stratégie au produit. A la date d’aujourd’hui, tous les CDO ne sont pas prêts à le faire…

Catégories
Digital analytics

Webperf des sites media : peut mieux faire

 

Un bon produit numérique, c’est avant tout un service rendu dans un délai court, en particulier pour les internautes disposant de connexions lentes sur desktop ou sur mobile. On a cru avec l’ADSL que le problème du « lag » était derrière nous. Et depuis, les pages n’ont fait qu’enfler pour peser parfois jusqu’à plus de 5 mégas octets.

Faut t’il rappeler que tout le monde n’a pas la fibre ou un ADSL haut débit ? Et dès qu’on quitte les grandes villes on n’en rend compte de manière… brutale. Du reste, lorsque l’on creuse un peu les stats des pages AMP, on constate que c’est sur les internautes situés en province qu’elles ont le plus de succès. CQFD.

En 2012, Amazon annonçait que chaque seconde de temps de chargement additionnel lui coutait 1,6 milliard de dollars. Pourtant depuis, la situation a peu changé et beaucoup de sites sont toujours très lents. Dans les médias, cela reste très vrai de manière générale. D’ou l’intérêt de ce baromètre qui balaie les 20 sites médias qui font le plus d’audience en France. Pour chaque KPI, vous trouverez la moyenne du secteur et l’indice recommandé par Google ou par les bonnes pratiques. Les données ont été récoltées par Dareboost du 30 décembre 2016 au 2 janvier 2017 sur la homepage de ces sites, soit à une période de faible affluence sur les sites média, normalement propice à une bonne webperf.

 

Speed Index

Le Speed Index est la mesure qui fait à peu près référence dans le monde du SEO. En tout cas, Google recommande officiellement d’avoir un score inférieur à 1000 (C’est à dire un affichage de la partie visible de la page en moins d’une seconde). On remarque que seuls 2 sites du panel respectent cette consigne (RTL et Le Nouvel Obs) et que quatre s’approchent ou dépassent le triple du speed index recommandé, avec un affichage de la partie visible en presque 3 secondes (Les Echos, Libération et Le Parisien), et plus de 8 secondes pour BFM TV, les jours où les mesures ont été prises.

TTFB

Le TTFB, ou « Time To First Byte » est le temps écoulé entre l’envoi de la requête au serveur web et la réception du 1er octet par le client. On recommande en général qu’il fasse moins de 200 ms et il semble que le TTFB ait un impact SEO. Pour les sites du panel, globalement la consigne est bien respectée et la moyenne des sites fait mieux que 200 ms. Seuls deux sites font moins bien : Les Echos et Boursorama.

Début d’affichage

Il s’agit du délai entre l’envoi de la requête et le début de l’affichage à l’écran pour l’internaute : c’est le moment où la page n’est plus blanche. Si en moyenne les sites média se placent en dessous de la seconde comme cela est recommandé, 6 sites sont au dessus et parfois assez largement : Les Echos, Europe 1, Le Figaro, Le Point, Le Parisien, Boursorama.

Chargement complet

On estime le chargement de la page complet lorsque tous les éléments qui la composent sont chargés. On recommande de ne pas dépasser 4 secondes, qui est le « seuil de tolérance » de l’internaute moyen. Au delà, les risques qu’il s’en aille avant la fin du chargement sont grands. La moyenne des sites média est très, très largement au dessus de cette recommandation avec un temps de chargement complet astronomique de 15 secondes en moyenne, avec deux sites qui tutoient même les 45 secondes au moment du test : France Info et Boursorama.

Un seul site du panel est conforme à la recommandation, il s’agit de Ouest France. Qu’est ce qui explique ces chiffres, qui semblent être une vraie tendance des sites média ? Essentiellement des problématiques publicitaires, avec des tags de pub qui incluent parfois jusqu’à 15 appels à des sous régies en « backfill », beaucoup de formats publicitaires en image lourds, et les visuels d’illustration des articles eux-mêmes qui peuvent être d’un poids important, sans compter qu’on voit dans de nombreux cas des images non pas retaillées mais seulement compressées à la dimension visible. Dans ce cas, l’internaute va devoir charger une image de 1000 pixels de large par exemple alors qu’elle ne s’affiche qu’en 200 pixels de large à l’écran.

Ce temps de chargement très long explique en grande partie le succès d’AMP, et j’irais même jusqu’à dire qu’il justifie en partie l’initiative de Google.

Poids des pages

Le poids d’une page, c’est la somme des poids de tous les éléments qui la composent : fichier HTML, scripts et trackings en tout genre, images, css, etc.. En moyenne sur le web, les pages pèsent 2,4 mégas (Source httparchive.org) mais il semble que pour le top 10 des sites les plus visités dans le monde, elle n’est que de 1,4 mégas et que ces sites travaillent à faire encore baisser ce poids. Preuve s’il en est que succès en ligne et webperf sont intimement liés.

De son côté, le Washington Post a beaucoup travaillé ces dernières années sur son temps de chargement, en faisant même l’un de ses principaux chevaux de bataille. Le site est salué actuellement pour ces succès d’audience, #DontActe.

Le poids moyen des pages des médias français dépasse largement les 2,4 mégas pour atteindre 3,5 mégas en moyenne, mais parfois beaucoup, beaucoup plus : presque 5 mégas pour Libération, 9,5 pour BFM TV, 5,5 pour LCI et 7 mégas pour La Tribune. Ce sont des poids réellement très importants et qui expliquent le succès des AdBlocks : plus aucune pub, c’est beaucoup moins de données à charger, c’est donc moins de consommation du budget data sur mobile et un chargement beaucoup plus rapide sur desktop. On a coutume de dire que « Le temps, c’est de l’argent »… on est en plein dedans…

Webperf avec et sans Adblock sur les sites média. Source : Dareboost

 

Nombre de requêtes par page

Une requête est une demande au serveur web d’afficher un script, une image, un fichier, etc. Ces requêtes peuvent être groupées pour gagner du temps, mais cela n’est possible que sur les « demandes » que l’on maitrise,  sur tout ce qu’on appelle des « appels externes » (scripts Facebook, codes de tracking, Pub), c’est beaucoup plus compliqué. La publicité a ainsi un impact fort sur le nombre de requêtes par page. C’est lié en grande partie à la cascade d’appels aux différentes régies et sous régies pour servir les formats.

On estime que sur un site média, en moyenne la moitié (!!!) des requêtes d’une page ont pour object d’afficher de la publicité. Pour garder une bonne webperf, on conseille de rester en dessous de la limite des 200 requêtes. Seuls 4 sites du panel y parviennent : Le Point, France Info, Eurosport et Ouest France. Certains sites tutoient le triple (600 requêtes) : Libération, BFM TV. L’Express quand a lui atteignait les 673 requêtes sur sa homepage durant le test.

Le palmarès

La webperf reste l’un des grands oubliés des priorités des groupes média. Les e-commerçants s’y sont mis il y a déjà longtemps, au vu des gains de chiffre d’affaire à en attendre. Dans les médias, c’est le phénomène des Adblocks qui a fait prendre conscience à la filiaire de l’ampleur du problème.  Mais le chemin à parcourir reste encore long. Selon Dareboost qui a eu la gentillesse de me fournir toutes les données présentées ici, Les Echos ferment la marche tandis que Ouest France est le gagnant de ce baromètre.

Notons toutefois que même ce site n’atteint pas la note de 80 qui correspond à la recommandation que je fais à mes clients en terme de webperf et qui reste de mon point de vue l’objectif à atteindre.

Même s’il sera difficile d’atteindre ce score dans les médias, du fait du modèle publicitaire (et des nécessités actuelles du programmatique) il existe tout de même une importante marge de manœuvre au niveau des admin sys et des équipes de développement en place dans ces différents groupes pour optimiser au mieux la webperf.

Je ne saurais donc trop conseiller aux éditeurs de sites de mettre au planning un projet « webperf » en 2017, avec un indice de priorité élevé. Il ne suffit pas en effet d’avoir un site ergonomique pour avoir une bonne expérience utilisateur. Une visite réussie tient beaucoup à la fluidité, et donc au temps de chargement. Le Washington Post l’a compris. Tiens, il est dirigé par Jeff Bezos, le même patron d’Amazon qui perd 1,6 milliard de CA à chaque seconde perdue. La boucle est bouclée.

Catégories
Digital analytics Produit UX / UI Design

4 grands enjeux du marketing digital en 2016

L’adblocking

Les bloqueurs de pub prennent chaque jour un peu plus d’ampleur. Pour les sites tech, la chute des revenus atteint déjà 50%. Certains sites ont déjà fermé, d’autres vont suivre avec à la clé un appauvrissement de l’offre éditoriale.

Pour la majorité des sites, on a déjà dépassé les 15 à 20%. Il y a le feu à la maison ! La cause, on la connait, c’est l’abus de publicité display à format intrusif, en particulier le pré roll vidéo et in format « inread » (une publicité vidéo, le plus souvent avec son, et qui se lance au scroll vertical pendant la lecture d’un article).

S’interdire d’utiliser ces formats ne suffira pas pour les éditeurs, car le mal est fait et l’habitude est prise. Il faut dire que ces bloqueurs sont redoutablement faciles à installer, efficaces et tellement invisibles une fois installés qu’on en oublie même leur existence. Implacable.
Derrière cet apparent service utilisateur se cache en réalité un inacceptable racket des éditeurs et des régies, que la majorité des utilisateurs ignore. Il va donc falloir trouver une solution acceptable pour l’internaute et viable pour les sites vivant de la publicité. Pas simple…

Si la situation est effectivement critique pour les éditeurs de sites, elle va devenir sacrément problématique pour les marques qui vont avoir de plus en plus de mal à toucher certaines cibles. La sortie de crise passera par un changement rapide des pratiques des éditeurs et une prise de conscience des annonceurs qu’il faut monter en qualité et donc en tarif.

On a assisté depuis 15 ans à un inventaire publicitaire qui n’a cessé de croitre en volume de manière quasi folle : toujours plus de sites, qui déploient toujours plus de mécanismes pour « faire toujours plus de PAP » et toujours plus de formats par page. Jusqu’à 8 sur certains sites. La crise a accentué cette fuite en avant visant à compenser la baisse de la valeur unitaire de la bannière par le volume. Les internautes viennent de siffler la fin de la récré. Il faut que les annonceurs se résolvent à payer plus cher et que les éditeurs prennent le risque de faire enfin de la publicité sur internet un business où ce qui est rare est cher, ce qui est une sacré gageure quand on a perdu en 10 ans 50% de son revenu publicitaire sur le papier, comme c’est le cas pour la presse.

Reste à trouver des moyens efficaces mais acceptables en terme d’expérience utilisateur pour amener les utilisateurs à se passer de bloqueur de pub. De la solution « dure » du blocage total, comme sur Bild en Allemagne, à la solution « soft » du Wall Street Journal qui propose data Facebook contre bloqueur de pub ou visite gratuite depuis Google, les éditeurs devront placer le curseur. Et ils ne devraient pas tarder à se positionner, à coup sûr dans les prochaines semaines. L’internet tout gratuit, c’est bel et bien fini.

Ce qui reste certain, c’est qu’il va falloir inventer d’autres formes de monétisation publicitaires que la bannière, et des formes plus respectueuses de l’utilisateur. A défaut, les annonceurs devront se tourner exclusivement vers Facebook, Apple et Google. Les éditeurs n’ayant, de leur côté, plus que leurs yeux pour pleurer.

Quand on voit les critiques du marché publicitaire et des éditeurs US sur l’unique format banner statique disponible sur Google AMP, on se dit que la route vers l’âge de la maturité sera encore longue.

Une expérience utilisateur multi plateformes

En 2016, la question ne se pose plus. Le monde de la consommation internet est déjà à moitié mobile depuis la fin 2015.

Pourtant, la majorité des sites internet sont encore conçus avec comme premier device pour le wireframing le desktop.

Pourtant, dans la majorité des équipes digitales, on compte 10 personnes travaillant pour le desktop contre 1 travaillant sur le mobile, en moyenne.

Pourtant, les concepts produit ne sont toujours pas conçus nativement pour un déploiement unifié en terme d’expérience web-mobile-tablette-montre-TV.

L’émergence d’une direction produit ayant la main sur la stratégie, que j’appelais déjà de mes voeux il y a un an, n’est pas encore une réalité. Ou du moins elle n’a pas encore réussi à prendre la place qui doit être la sienne dans la majorité des entreprises. Ou alors elle n’a pas encore pu embaucher les experts permettant de sauter la haute marche entre « équipe projet » et « équipe produit », qui ne peut se faire que par l’addition de nouveaux talents au sein de l’équipe, et certainement pas à effectifs constants.

Avec les nouveaux écrans et l’internet « partout-tout le temps », passer très vite à une conception produit nativement multi devices est un enjeu majeur, qui dépasse largement le simple « responsive design » ou la personnalisation simple selon la source d’accès. C’est concevoir un produit qui devra répondre différemment aux attentes différentes d’un public identique en fonction du moment, du contexte et du lieu d’utilisation.

Au delà de la montre et des différents gadgets autour de la mesure de soi, c’est sans doute par le boitier TV qu’arrivera le 3è écran majeur pour de nombreuses marques : expérience shopping immersive pour les ecommerçants, consommation de services et contenus éducatifs (réviser le bac, apprendre le code de la route, …), consommation média, et sans doute beaucoup de nouveaux usages à inventer.

Le boitier Apple TV est à ce titre exemplaire de nouveaux usages qui pourraient naitre.

La distribution du contenu tous azimuts

Au delà de la multiplicité d’écrans sur lesquels on pourra consulter les produits et services d’une marque, on note, et c’est sans doute la dernière en date des révolutions perpétuelles de l’internet, l’émergence de la distribution du contenu hors des supports « owned » de la marque. On ne parle plus là de faire la promotion de ses contenus, produits, services sur une page Facebook, un compte Twitter ou un board Pinterest mais bien d’envoyer ses propres contenus vers des plateformes tierces pour qu’elles les hébergent et en tirent de l’audience.

Aussi inconcevable que cela aurait pu le paraitre il y a 2 ans, il semble bien qu’il s’agisse ici d’un pivot « déjà plié » si j’ose dire. Les réseaux sociaux seront demain non plus des lieux communautaires de partage de contenu mais de véritables portails que l’on ne quittera plus guère car on y trouvera tout. Finalement on est proche de ce que pouvait être Yahoo! au milieu des années 2000 en terme de promesse.

Car voilà, Facebook a lancé sa plateforme Instant Articles, actuellement testée par plusieurs sites en France dont celui du journal Le Parisien, qui promet aux éditeurs une expérience utilisateur parfaite pour les lecteurs, qui n’auront pas besoin de sortir de Facebook pour consulter un article à la vitesse de l’éclair. La révolution annoncée est telle que l’on peut même se demander si de nombreuses marques (média et autres) auront encore un site internet dans 10 ans. Il est certain que si ce système présente un risque majeur pour les éditeurs de sites vivant de la publicité, il présente en revanche un avantage majeur pour les marques.

Il était compliqué jusqu’à présent pour de nombreuses marques d’internaliser assez les mécanismes de marketing de diffusion de leur brand content pour rivaliser avec les medias qui connaissent cela sur le bout des doigts. Avec Instant Articles, les articles qui avaient avant peu de résonance sur le blog de la marque pourraient prendre une nouvelle ampleur sur un réseau social comme Facebook, pour peu qu’on couple cela avec un peu de budget de visibilité payée et de « viral loop ».

Mais Facebook n’est pas le seul à se lancer sur ce créneau. Dans l’univers BtoB, LinkedIn met les moyens pour propulser sa plateforme de diffusion de contenu Pulse qui est à surveiller de près car les premiers retours sont très positifs. Dans le secteur high Tech, tous ont les yeux rivés sur Medium, au point que certains blogueurs ont abandonné leur propre site pour ne plus publier que là. Il faut dire que le site dispose d’une expérience utilisateur particulièrement réussie et est exempte de publicité intrusive. La boucle est bouclée.

Enfin, Google n’est pas en reste avec AMP, son « cdn mobile » qui héberge des contenus (pour l’instant media) réduits au strict minimum pour un affichage instantané et une expérience utilisateur fluide. Twitter et Pinterest sont déjà associés au projet, ce qui le rend particulièrement attractif.

Il y a ici pour les marques de nombreuses possibilités de diffuser leur contenu de manière beaucoup plus massive et efficace qu’aujourd’hui, et surtout vers les bonnes cibles. Et comme d’habitude sur internet, la prime aux premiers arrivants est de rigueur…

L’analytics multi plateformes et multi devices

Entre les multiples écrans et la distribution du contenu à 360°, sans compter l’émergence du https, on se retrouve dans un univers ou l’analytics devient réellement complexe voire impossible à mener. Quand les instituts de mesure officiels Comscore et Médiamétrie seront t’ils en mesure de délivrer l’audience multiforme consolidée d’une marque ? Quand nos outils d’analytics habituels seront t’ils capables de mesurer ensemble les supports « owned » et « earned » d’une marque ? Jusqu’à quel point les plateformes de distribution de contenu joueront t’elles le jeu du partage de la data ?

Pour le moment ce ne sont que des questions sans réponse. Mais cela ne pourra pas durer bien longtemps, car les cycles d’évolution du web sont de plus en plus rapides. Le temps s’accélère et le besoin de métriques est déjà très fort. Pour le moment tous en sont réduits à consolider comme ils le peuvent et à la main, et, dans certains cas, à ne pas mesurer du tout, faute de consistance des data ou de modèle statistique fiable.

Les mois à venir s’annoncent donc à la fois passionnants et charnière. A suivre !

Catégories
Digital analytics

Digital analytics, de la métrique à l’engagement : l’exemple du New York Times

James G. Robinson est Director News Analytics au New York Times. Lors du Google for Media Summit à New York fin juillet dernier, il a présenté aux journalistes et éditeurs de sites média présents dans la salle sa vision de ce que doit être l’analyse d’audience sur un site éditorial et les outils qu’il a mis en place. En un mot : passer du qualitatif au quantitatif.

Mesure et évaluation

La WebAnalyse, c’est bien sûr la mesure (quantitative) et l’évaluation (qualitative), mais c’est aussi la connaissance de l’internaute et de ce qui l’engage. C’est cet engagement qui est important ; bien plus que de compter des pages vues. Pendant longtemps, le New York Times a refusé de faire de l’analytics orienté news par peur de devenir complètement orienté visite et page vue, à l’instar de Buzzfeed, le paradis du cutie cat. A présent le New York Times dispose d’une véritable équipe constituée de 30 personnes, exclusivement dévolue à l’analytics.

Buzzfeed UK Top posts
Buzzfeed ne produit des contenus que sur les thématiques qui cliquent. Résultat, la ligne éditoriale se limite aux chatons, aux listes sur tout et n’importe quoi et au LOL. Crédit image: Buzzfeed UK

La webanalyse, ce n’est pas seulement l’affaire des spécialistes, selon James G. Robinson, tous les journalistes doivent s’y intéresser et les utiliser dans leur pratique quotidienne. C’est là qu’est la clé du succès pour faire grossir les audiences et l’engagement des lecteurs. Attention, mesurer le taux d’engagement, ce n’est pas compter le nombre de fans ou de followers. Ce serait comme définir l’amour que l’on porte à sa femme au nombre de fleurs dans le bouquet qu’on vient de lui offrir, insiste t’il.

Mon papier a t’il bien marché ?

Voilà la question typique que les journalistes du New York Times posent sans cesse à l’équipe News Analytics. Mais comment répondre à cette question ? Par le nombre de visites ou de pages vues si c’est un dossier, par le taux de rebond, par le nombre de tweets ou de partages Facebook ? Et bien c’est tout cela ensemble. Résumer le succès d’un article au nombre simple de vues n’a pas de sens.

Gérer le flow à l’intérieur du site : le Package Mapper du New York Times

Sur de nombreux sites de contenu, on remarque que beaucoup d’articles finissent en impasse et par le départ de l’internaute du site. Tout cela faute de rebond présent ou correctement placé sur la page article. Dire que tous les contenus en relation avec le thème de l’article doivent être liés à celui-ci semble être simplement enfoncer une porte ouverte. Et pourtant…

Les sites media produisent  énormément de contenus chaque jour. Il est matériellement impossible qu’un lecteur consomme tout ce qui a été produit sur un sujet donné, quelque soit la qualité et la variété du contenu proposé. En réalité, la majorité des lecteurs sur un site de news ne lisent qu’une seule page (en moyenne, une visite en provenance de Google Actualités produit 1,6 pages vues). C’est comme cela que le projet Package Mapper est né au New York Times : étudier comment les lecteurs consomment l’info sur chaque template de contenu (article, dossier, diaporama,…) pour leur proposer la meilleure expérience utilisateur possible.

Leur première étude a porté sur la thématique des Golden Globes.

– Chaque bulle de couleur représente un article

– La taille de la bulle est proportionnelle au nombre de visites sur l’article

– La couleur de la bulle représente le desk qui l’a produite (en presse, les équipes éditoriales sont organisées par rubrique en web comme en print)

– Les flèches montrent la recirculation entre les contenus. Plus la flèche est grosse et plus il y a recirculation.

Data visualisation de ce que fait l'outil Package Mapper du New York Times - Crédit photo : New York Times
Data visualisation de ce que fait l’outil Package Mapper du New York Times – Crédit photo : New York Times

Que remarque t’on ?

– Il n’y a pas de point d’entrée unique, chaque article est une entrée potentielle sur le sujet. Pour certains, l’audience provient en majorité de la homepage mais pour d’autres non. On imagine que le trafic vient alors de Google News, le SEO classique ou les réseaux sociaux.

– La recirculation est très faible. De manière globale un seul contenu est lu

– Le seul rebond un peu important est fait vers une page qui elle est en réalité une impasse, conduisant au départ de l’internaute du site

– On a la sensation qu’il y a un manque de communication entre les différents desks, ce qui fait que les journalistes en charge du style ne sait absolument pas que d’autres articles ont été produits par les rubriques cinéma, fashion et arts. Par conséquent il ne fait pas lien vers eux. Pourtant, ces thématiques sont connexes et on peut être quasi certain que les internautes auraient été intéressés par les différents articles.

Cette initiative pilote réussie a conduit à la mise en place du « package Mapper » pour les JO de Sotchi. L’équipe News Analytics a mis en place l’outil en temps réèl et accompagné la rédaction au quotidien.

Le Package Mapper mis en place pour les JO de Sotchi - Crédit photo : New York Times
Le Package Mapper mis en place pour les JO de Sotchi – Crédit photo : New York Times

On remarque que le soutien de l’équipe analytics porte tout de suite ses fruits : la recirculation est bien meilleure. Cependant, le 2 mai, l’équipe remarque qu’un article en rouge, en bas à gauche, génère une grosse audience suite à un buzz sur les réseaux sociaux. Dommage, il renvoie uniquement vers d’autres articles de la région de New York, plutôt que vers d’autres articles à propos des jeux olympiques. Un petit coup de fil au journaliste plus tard, suivi par la mise en place d’un rebond « jeux olympiques », la carte de recirculation a radicalement changé.

Le Package Mapper mis en place pour les JO de Sotchi après ajout d'une recirculation – Crédit photo : New York Times
Le Package Mapper mis en place pour les JO de Sotchi après ajout d’une recirculation – Crédit photo : New York Times

Depuis, les équipes news analytics travaillent à une version plus conviviale de l’outil à destination des journalistes pour en faire un outil d’usage quotidien (ça fait envie). Il me semble qu’il ne faut pas oublier les aspects algorithmique, produit et tag de la question. En effet, un bon rebond peut être aussi basé sur les centres d’intérêt de chaque internaute, ou sur sa navigation antérieure sur le site. Pour cela, un préalable (pas très glamour, il faut bien le reconnaître) est un bon taggage des contenus, via une taxonomie pensée et travaillée, très éloignée du grand « fourre-tout » que l’on voit partout que sont les tags sur les CMS plats type Drupal ou WordPress, et qui font le désespoir quotidien des référenceurs.

Conclusion

Même dans les rédactions web et les équipes digitales, le manque de communication est à chaque fois une cause de contre performance. Il y a des questions de fond à se poser sur l’organisation des espaces et la mise en place d’une communication transversale cross spécialités.

Le bloc de recirculation et les liens à l’intérieur de chaque article sont cruciaux pour le développement de l’audience et pour l’engagement. L’équipe produit peut évidemment concevoir des blocs de recirculation automatisés, bien designés et ergonomiques. Mais cela ne remplacera jamais une implication des équipes éditoriales qui reste indispensable au succès. C’est le travail main dans la main des équipes analytics, produit, développement et éditoriale qui fait qu’un site de contenu est une réussite.

Sources :

Le Storify du Google for Media summit
Watching the audience move: A New York Times tool is helping direct traffic from story to story – Nieman Labs