Médias et intelligence artificielle : Quelles nouvelles compétences pour les tâches pour les rédactions ?

Maëlle Fouquenet
4 min readAug 22, 2018

--

Le développement de l’intelligence artificielle fait craindre la disparition de nombreux emplois dans tous les secteurs, y compris dans les rédactions. On se demande moins lesquels pourraient émerger alors même que de nouvelles compétences deviennent nécessaires. Voici quelques tâches appelées à se développer.

1/ Enseigner aux algorithmes

Pour rédiger des textes ou créer des vidéos automatiquement, les algorithmes d’intelligences artificielles doivent apprendre, être nourris, et la nourriture qu’on choisit de leur donner détermine la façon dont ils agissent par la suite. Ils ont besoin d’une personne qui les guide, les supervise, les corrige, les améliore. Cette personne doit également comprendre le fonctionnement d’un algorithme pour travailler avec.

De plus, la sélection du corpus qui sert de base d’apprentissage (textes, images, vidéos..) n’est pas anodine. En effet, l’intelligence artificielle reproduit les stéréotypes et les biais racistes et genrés. Il y a donc un enjeu important d’enseignement aux algorithmes qui serviront dans les rédactions. Cet apprentissage porte sur le langage mais pas seulement. Il faudrait pouvoir également enseigner l’empathie, la compassion ou encore le sarcasme pour affiner leur capacité d’écriture et d’analyse de textes. Enfin, il est nécessaire d’y intégrer la ligne éditoriale afin qu’elle transparaisse et soit respectée comme elle l’est par les journalistes.

Si l’apprentissage sert à rédiger automatiquement des articles, il peut également servir à modérer automatiquement les commentaires liés aux articles. Là encore, des éléments importants entrent en ligne de compte dans cet enseignement, comme les références culturelles ou la connaissance des éléments de langage et d’un vocabulaire “parallèle” selon les auteurs et cibles. Un vocabulaire qu’il faut continuellement mettre à jour puisqu’il évolue régulièrement pour contourner la modération. Cette application du machine learning à la modération est expérimentée au New York Times. L’algorithme établit un degré de toxicité des commentaires qui sont ensuite traités si besoin par des modérateurs humains.

Autre tâche possible à déléguer à un robot, la recherche et la collecte d’informations, données ou d’anomalies automatisées pour aider les journalistes et leur faire gagner du temps. Reuters News Trace par exemple surveille des masses de contenus sur Twitter pour détecter des tendances. L’expertise des journalistes de l’agence a servi de base pour créer les 700 signaux pris en compte par le robot qui établit le degré de véracité d’un tweet. Il est donc essentiel de maîtriser son sujet ainsi que les sources potentielles pour paramétrer l’algorithme le plus efficacement possible.

Les journalistes sont les personnes les plus pertinentes pour remplir ces tâches d’enseignement. Mais pour Hanna Tuulonen, journaliste qui travaille sur l’automatisation de contenus en Suède et Finlande, ils ne sont pas encore prêts à enseigner aux machines, et “les machines doivent devenir plus intelligentes qu’elles ne le sont actuellement”.

2/ Garantir l’éthique des algorithmes et la ligne éditoriale

Deviner si un texte est rédigé par une algorithme ou un-e journaliste n’est pas toujours aisé et le sera probablement de moins en moins. Comme dans tous les autres champs de leur utilisation, les algorithmes utilisés par les médias doivent être transparents. Il convient d’expliquer comment les contenus automatisés sont générés, à partir de quoi, comment ils sont supervisés, modifiés, amendés et par qui, et éviter l’effet “boite noire”.

Comme l’explique Peter Aldhous, datajournaliste chez Buzzfeed, “si vous ne pouvez pas expliquer comment fonctionne votre algorithme, il y a un problème fondamental de transparence”. Cela vaut également pour un algorithme de personnalisation par exemple.

De manière plus large, la transparence s’applique également à l’origine des contenus utilisés pour les enquêtes, notamment en datajournalisme. Les médias ont d’ores et déjà largement adopté la bonne pratique de sourcer les jeux de données bruts utilisés et expliquer leurs méthodes de travail en datajournalisme.

Enfin, il est nécessaire de savoir repérer les erreurs et biais éventuels, les reconnaitre, en trouver l’origine et les corriger. Cette transparence constitue l’un des fondements de la confiance des lecteurs et internautes.

3/ Gérer la place des algorithmes dans l’organisation et la relation IA/humains

Pour assurer cette transparence, il est aussi impératif d’expliquer comment fonctionne l’algorithme à ses patrons, à ses collègues, et ne pas devenir le ou la “geek” de service. Les rédactions se heurtent souvent à des craintes culturelles face à la technologie qui freinent le déploiement des innovations en interne. Difficulté à convaincre de l’intérêt d’un projet, peur générée par un nouvel outil…

La formation des journalistes et des équipes au fonctionnement des algorithmes permettrait une compréhension des enjeux ainsi qu’une implication et une collaboration plus fortes (sans pour autant apprendre à coder). Cela ouvrirait aussi à plus de questionnements en interne sur les résultats produits par les robots et les processus pour les obtenir, et ainsi un enrichissement collectif des pratiques journalistiques.

C’est aussi une façon d’aborder la place du robot et celle de l’humain dans une rédaction. Si savoir comment fonctionne un robot rassure, il serait bon également d’énoncer clairement des règles sur qui fait quoi (quels types de textes seront rédigés par un robot par exemple), dans quel but (générer une quantité de textes répétitifs impossible à rédiger par des journalistes mais utiles au référencement ?), avec quelle supervision (qui paramètre le robot, qui suit les résultats, les corrige, les exploite, qui en est responsable…). Erin Wright, modératrice au NYT, déclare dans une vidéo du journal : “En travaillant avec une intelligence artificielle, j’ai l’impression d’être dans Star Trek où mon collègue est un robot et on s’entend bien”.

Si les robots et les algorithmes ne prennent pas la place des journalistes, ils les déchargeront de plus en plus de certaines tâches, permettront de couvrir plus de territoires et/ou sujets. Mais les robots se limitent aux données qu’ils trouvent ou qu’on leur fournit, et une mise en contexte reste nécessaire. Reste à définir quelles aides apporteront les algorithmes dans les rédactions, comment, avec quelle transparence et quel contrôle. Ce n’est que le début...

--

--

Maëlle Fouquenet
Maëlle Fouquenet

Written by Maëlle Fouquenet

Journaliste en formation/reconversion data analyst, ex responsable numérique @ESJPRO. Algo, transparence, audio, ❤#Berlin, #Nantes, #freediving et #lindyhop

No responses yet