Data et presse régionale (2/3) : L’importance des questionnements et des choix éditoriaux
Collecter des données inédites, comme vu dans cet article, c’est bien. S’interroger en amont sur la nature des données qu’il faut pour réaliser une enquête, sur leur pertinence, c’est mieux.
Cela évite tout d’abord un travail qui restera inexploité (récupérer des données dont on ne se sert pas mais qui alourdissent la collecte et le traitement). Ça évite aussi de s’apercevoir en cours de route qu’on a oublié de demander une information qui se révèle essentielle pour que l’enquête soit pertinente.
Pour autant, à chaque journaliste data son style et sa technique d’approche.
Quels indicateurs retenir quand on créé une base de données ?
Il convient d’abord de bien réfléchir à ce qu’on demande et à qui. “Il faut avoir déjà une idée précise du sujet qu’on aborde pour poser les bons critères de collecte”, explique Frédéric Sallet, journaliste en charge de la data et de l’infographie chez Sud Ouest. Donc se documenter en amont.
Entamer une collecte sera toujours un peu chronophage. S’apercevoir en chemin qu’il manque un élément important pour réaliser son article peut mener à l’abandon de l’enquête. Il existe aussi un risque d’analyse erronnée.
Même son de cloche de la part d’Arnaud Wéry, qui mène régulièrement des projets de datajournalisme au sein du weblab de L’Avenir. Il évoque un projet avorté sur le prix des stationnements en centre-villes par manque de précisions en amont dans les critères des éléments à collecter. “On risquait de comparer des pommes et des poires en raison des différentes zones et tarifs, si les gens sont résidents dans la zone, ils ne paient pas le même tarif… C’était trop compliqué d’en tirer quelque chose, on n’en a rien fait.”
Pour déterminer les indicateurs qui seront nécessaires à l’enquête, les journalistes doivent poser précisément la question principale à laquelle ils cherchent des réponses. Il n’y a jamais trop d’informations, mais des données souvent mal structurées et qui nécessitent un gros travail de nettoyage.
Karen Bastien, co-fondatrice de l’agence WeDoData, voit large lors du travail de collecte de données et cherche toujours la granularité la plus fine. “S’il y a dix indicateurs sur un sujet, que je n’en ai besoin que de trois, je prends tout de même les dix et je vois ce que je peux automatiser.” Cette démarche est un investissement en temps au départ, mais peut offrir d’autres sujets connexes, des angles différents, des idées de croisement de bases. L’automatisation permet quant à elle des mises à jour régulières pour être très réactif.
Créer un baromètre, le casse-tête des indicateurs et de leur pondération
“Où fait-il bon vivre ?” Un marronnier de la presse magazine nationale, un sujet très intéressant en local, qui fait réagir, qui génère de l’audience et qui entraîne de l’interaction. Inspirée par un article du Parisien, Aurore Malval, de Nice Matin, a travaillé sur un baromètre de la qualité de vie “fait maison”. Pour créer cet outil, la journaliste a choisi huit thèmes à mesurer : les transports, l’environnement-cadre de vie, la sécurité, la santé, le coût de la vie, l’éducation, le sport-les loisirs et les commerces et services.
Apparemment, huit grands critères assez consensuels et évidents. En amont, la journaliste avait sondé les lecteurs et internautes de Nice Matin en leur demandant ce qui était important pour eux en terme de qualité de vie. “Ça m’a permis de pondérer ensuite les notes”, précise-t-elle.
Mais dès qu’on entre dans le détail de la mécanique, tout se complique. Quels indicateurs prendre pour mesurer la sécurité par exemple ? Le nombre de vols de voitures ? de deux roues ? d’agressions physiques ? de vols à la roulotte ? de caméras de surveillance ? de policiers et gendarmes pour 1000 habitants… ? Et pour le cadre de vie/l’environnement, que choisir ? la proximité de la mer ? la surface d’espaces verts ? le bruit autoroutier de l’A8 ? la qualité de l’air (sauf que toutes les communes ne la mesure pas, ou ne mesure pas la même chose)… ? Bref de quoi s’arracher les cheveux.
“J’ai choisi les indicateurs en fonction de ce qui me paraissait pertinent et permettait de comparer les communes”, indique Aurore Malval.
Parmi les éléments à avoir en tête également, la saisonnalité influe sur les chiffres. Concrètement, les populations des villes côtières augmentent très fortement l’été avec l’arrivée des touristes et résidents secondaires. Mécaniquement, cela impacte les chiffres de nombreux indicateurs, ce qui n’est pas le cas — ou beaucoup moins — des communes de l’arrière-pays. Comment prendre ce fait en compte pour créer un baromètre pertinent ? Là aussi, c’est une véritable question.
Au final, ce travail (détermination des indicateurs, collecte des données et début d’analyse) aura pris environ un mois à la journaliste. Elle a d’ailleurs modifié ses indicateurs en cours de route. La quinzaine d’articles web — payants — et les six pages print liés à ce classement ont généré de “belles audiences” et de nombreuses réactions. Les questions sur la méthodologie sont principalement venues des communes elles-mêmes.
Parmi les conseils à retenir de cette expérience, et suggéré aussi par Karen Bastien, il est très utile de lire d’autres enquêtes similaires pour décortiquer les méthodologies, les choix pris, et connaître (et pour éviter) les erreurs éventuellement commises par les confrères. Enfin, dernier conseil : il faut savoir s’arrêter ! “Sinon ton classement ne sort jamais.”
Dans le cas d’une base de données déjà existante
Si la base de données existe déjà, des questions se posent également. Chez WeDoData, chacun pitche son travail. C’est à ce moment là, quand l’histoire prend forme, que les autres questionnent : pourquoi as-tu pris telle CSP et pas telle autre ? pourquoi n’as-tu pas croisé telle et telle base de données ?… “La réponse peut être parce que je ne l’ai pas, ou parce que ça ne me parait pas pertinent pour telle et telle raison. Comme lors d’une conférence de rédaction”, explique Karen Bastien.
Dans le projet d’articles automatisés sur les tremblements de terre, l’équipe de Nice Matin a aussi du déterminer des critères. A partir de quelle force déclencher un article ? Le choix a été arrêté sur une magnitude 2, essentiellement pour une raison de volume. En une journée, il peut y avoir plus de quinze séismes à une magnitude inférieure à 1, pour lesquels la secousse n’est pas ressentie.
De leur côté, les journalistes associés au projet Bxl’Air Bot ont du choisir quels relevés ils voulaient que le système de la journaliste et développeuse Laurence Dierickx aille chercher (les autorités locales communiquent avec des smileys sur la qualité de l’air bruxelloise mais n’intègrent pas tous les capteurs existants). Pourquoi prendre ceux-ci et pas ceux-là ou pourquoi pas la globalité des capteurs (sachant que certains sont placés dans des zones plus pollués que d’autres) ?
Laurence Dierickx souligne également le questionnement sur le moment de la collecte (puisque effectuée régulièrement) : à quelle heure relever l’info ? Les capteurs ne donneront pas les mêmes informations à 8h en plein bouchon qu’à 11h. Faut-il faire le relevé tous les jours à la même heure ou pas ? Il y a eu là de véritables choix journalistiques à faire.
Pour son enquête sur les particules fines, le Stuttgarter Zeitung ne s’est pas contenté des capteurs officiels déjà en place parce qu’ils ne couvrent pas toute l’agglomération. Dans cet exemple comme dans celui de Bruxelles, il est intéressant de questionner les emplacements de ces capteurs officiels par rapport au trafic routier quotidien.
Retrouver la confiance du public
Ces choix journalistiques doivent être expliqués aux internautes de manière claire, pour améliorer la transparence envers les lecteurs et gagner en confiance. Le média doit pouvoir argumenter ses critères de données car ce sont des choix éditoriaux, tout comme un choix d’angle ou de titre pour un article.
Par ailleurs, les journalistes spécialisés (les rubricards) ont un rôle important. En association avec les journalistes data, ils questionnent la base de données, ils pointent ce qu’il y manque éventuellement au regard de leurs connaissances du sujet, apportant du contexte.
Travailler en lien des chercheurs, des experts
Un média régional d’information générale, qui a rarement des rubricards dans tous les domaines, peut aussi s’appuyer sur des experts, des chercheurs pour valider la méthodologie retenue. De plus, ces derniers apportent une aide précieuse pour comprendre et analyser correctement les données.
Le Stuttgarter Zeitung cité plus haut, travaille sur les particules fines en partenariat avec un laboratoire de l’université. Ils collaborent aussi avec Open Knowledge pour la collecte et la structuration de la base de donnés (qui est en open data), ainsi que son analyse. Owni s’était appuyé sur l’expertise des membres de l’ONG France Libertés pour valider les informations envoyées par les internautes dans leur enquête sur le prix de l’eau.
Vincent Lastennet, du Télégramme, échange régulièrement avec les statisticiens de l’Insee. Quant à Julien Vinzent, journaliste chez MarsActu, il a travaillé en collaboration avec une universitaire sur les données des immeubles dégradés à Marseille.
Point important pour qu’une collaboration fonctionne : bien se mettre d’accord sur la feuille de route en amont (les disponibilités, les objectifs de la collaboration, le calendrier, la méthode…) pour éviter les frustrations et déconvenues. Le temps universitaire ou associatif n’est pas celui des médias et inversement.
Dans le datajournalisme, il y a journalisme. Oui je sais bien que vous savez lire, mais c’est toujours important de le rappeler. Journalisme. Donc choix éditoriaux, appliqués aux données collectées, croisées, analysées. Ces choix reflètent la ligne éditorial du média, et ils doivent être expliqués au public.
Cette transparence permet selon moi de renforcer la confiance des internautes. Si, en plus, vous travaillez des sujets serviciels, que vous leur rendez service, vous créez de la fidélisation. Et ces deux éléments, confiance et fidélisation, pavent le chemin vers l’abonnement ou le “membership”.
Anna Bateson, Chief customer officer du Guardian, indiquait lors d’une conférence en avril 2019, que les enquêtes type Panama Papers sont un des leviers qui donnent envie aux gens de soutenir le titre et devenir membre.
Les articles data sont numéro 1 des articles les plus lus dans le palmarès annuel du New York Times.
Dans les titres de PQR française qui jouent cette carte, les articles data influent très positivement sur l’image du titre, lui donnant une image de forte qualité et de très bons retours des lecteurs, des temps de lecture allongés par rapport aux articles plus classiques. Chez Nice-Matin, quand un article data est publié dans la zone payante, les gens se connectent à leur compte ou cliquent sur la publicité pour voir l’article. Le contenu data, à condition d’être bien titré (sous une forme interactive), génère une action. “On est autour de 20% de l’utilisation du paywall”, explique Damien Allemand.
Au FigData, le service data du Figaro, le constat est clair : “Les gens sont prêts à payer”, indique Stéphane Saulnier, le rédacteur en chef du service.
Un article data (“Êtes-vous riche ?”) a généré le plus d’abonnement de toute l’histoire du Figaro.
En comparaison, “un bon article data provoque habituellement 40 abonnements sur un mois de vie. Celui-ci en a fait un peu plus de 200 abonnés sur la même période”, explique Stéphane Saulnier. Ce sujet, froid (de longue traine) est republié régulièrement. A chaque republication, il re-génère des abonnements.
Depuis début 2019, toute la production du FigData est passée en premium et les résultats sont intéressants :
➡️ temps de lecture moyen d’un article data ? 4mn30, avec des pics à 7 ou 8mn selon les sujets.
➡️ des internautes qui reviennent, qui lisent des articles parus depuis plusieurs jours ou semaines car ce sont des contenus pérennes, enfin des articles souvent denses et riches qui présentent des angles originaux.
“Ces contenus méritent qu’on s’abonne pour y accéder”, Stéphane Saulnier.
Pourquoi ça marche chez eux et pas chez d’autres ? Peut-être parce que ce type de sujets et leur traitement répondent aux attentes du lectorat du Figaro (plutôt CSP+ retraités ou pré-retraités), probablement un peu aussi parce qu’ils ont trouvé une organisation qui fonctionne bien : les trois journalistes data analysent, les journalistes spécialisés écrivent, contextualisent et usent de leur carnet d’adresse pour enrichir les analyses d’interviews.
La complémentarité et la collaboration. Deux notions clés et deux habitudes de travail culturellement souvent éloignées des journalistes, dont on voit pourtant régulièrement qu’elles sont payantes.
Autres articles de la série :
- Data et presse régionale (1/3) : 8 façons de collecter des données inédites
- Data et presse régionale (3/3): Assurer la qualité et la pérennité des données