Depuis quelques années maintenant, la digitalisation des parcours client et l’amélioration exponentielle des capacités de stockage et de calcul invitent les groupes médias à repenser leur fonctionnement en exploitant leurs données et l’IA. En effet, l’I.A devrait avoir comme impact d’accélérer la croissance annuelle moyenne du secteur de 1,4 pb d’ici à 2035 à 4,8% contre 3,4%[1]. Nativement adoptée par certains pure players, l’I.A sera un levier de transformation majeur pour les médias traditionnels qui veulent bénéficier de cette croissance additionnelle.

Quelles sont les opportunités de transformation offertes aux médias traditionnels ? Comment mener cette transformation ? Voici les questions auxquelles nous apportons des éléments de réponse.

Une multitude d’opportunités de transformation

L’I.A offre aux groupes médias des opportunités de transformation sur l’ensemble des métiers au cœur de leur activité, de la production à la diffusion, en passant par la monétisation des contenus. En voici quelques exemples.

Optimisation de la chaine de production

Grâce à la reconnaissance d’images et à l’apprentissage automatique permis par le Machine Learning, l’I.A peut automatiser la création de métadonnées sur tous types de contenus. Cela facilite ainsi la découverte de contenu en permettant aux recherches d’être effectuées avec des critères plus fins, pour des résultats plus précis. L’indexation automatique, ainsi que les conversions de formats de données, accélèrent le travail des journalistes et facilitent la vérification des faits, mais aussi la création de compilations, par exemple. Fox, The New York Times, The Washington Post, la RTS, la BBC… Les entreprises plébiscitant ces solutions sont nombreuses.

Plus proche de nos frontières, certains outils automatisent l’écriture d’articles à faible valeur ajoutée, permettant ainsi aux journalistes de travailler sur des sujets qui demandent à la fois plus d’investigation et une expertise plus pointue. Syllabs, par exemple, propose des bots journalistes, pour traiter automatiquement les résultats d’élections : leur outil Data2Content génère des textes dès que les informations arrivent sur le site du ministère de l’Intérieur. D’autres start-ups, tel que Trinit permettent d’accélérer grandement l’écriture d’article ou la création de vidéos en utilisant la reconnaissance vocale pour traduire l’information audio en texte. Ce texte est ensuite directement « réencodé » à la vidéo, ce qui facilite la recherche, la vérification et la modification des transcriptions générées par la machine.

Afin de maitriser et anticiper l’information, la diffusion en temps réel, mais aussi pour se démarquer face à ses concurrents, les équipes R&D de l’agence de presse Reuters ont développé l’outil News Tracer qui repère les événements significatifs sur Twitter grâce à un algorithme. Cet outil attribue à ces événements un « score médiatique » qui permet de se concentrer prioritairement sur les événements les plus significatifs. News Tracer génère également, grâce à un process de rétro-ingénierie, une note de confiance sur la véracité de ces événements. Ce dernier point est important car il répond à l’exigence de fiabilité de l’information attendue des médias.

Section vide. Modifier la page d'ajouter du contenu ici.

Distribution, personnalisation et recommandation du contenu

Bien que l’intelligence artificielle et les technologies associées ont et auront effectivement un impact transformateur sur le marché des médias, les opportunités présentées ci-dessus ne constituent probablement qu’une infime partie des gains qui seront apportés à cette industrie dans un futur proche. En effet, l’impact majeur de l’I.A se fera au travers du processus par lequel le contenu est adapté et présenté aux audiences. Alors que le marché produit des océans de contenus d’une qualité et d’un attrait très variables, un appariement efficace est celui qui convertit cette masse en un ensemble de produits compréhensibles et adaptés à chacun. Cette granularité peut varier de plusieurs façons :

  • Cela peut vouloir dire diffuser le bon contenu au bon endroit

BuzzFeed, fort de 400 canaux de diffusion sur différents réseaux, a par exemple utilisé l’intelligence artificielle pour renseigner la probabilité de la viralité d’un article et le promouvoir sur le canal le plus adapté au public ayant les plus grandes chances de l’apprécier. Cette probabilité est le produit d’un effort commun des équipes produit, médias sociaux, ingénierie et data science qui ont élaboré un modèle d’apprentissage automatique qui se base sur des données historiques de contenus performants.

  • Cela peut vouloir dire diffuser le bon contenu au bon moment

Zombie, une solution d’intelligence artificielle utilisée par le magazine Suisse Le Temps, identifie ses meilleurs articles grâce à une valorisation des archives et grâce aux données de Chartbeat (entreprise technologique qui fournit des données et des analyses aux éditeurs mondiaux) et Google Analytics. Zombie attribue ainsi un score de pertinence selon des indicateurs qualitatifs (temps de lecture, historique de l’audience, engagement et débat suscité sur les réseaux sociaux…) et conseille le meilleur moment pour republier et atteindre de nouvelles audiences. Cela permet de donner une seconde vie au contenu, et récolter ainsi des retours marginaux.

  • Cela peut vouloir dire diffuser le bon contenu au bon groupe de personnes

Business Insider a plus de contenus que quiconque ne peut, ou ne veut lire ou regarder. Grâce à la solution de la start-up Sailthru, l’éditeur a donc créé des profils sur la base de l’historique du contenu consommé (tracé par les cookies). En fonction de son profil, le lecteur se voit proposer des contenus adaptés, à la fois sur le site et dans ses e-mails. Cet investissement sur la segmentation de ses lecteurs a permis à Business Insider d’augmenter ses taux de clics de 60% et de 150% ses taux de clics publicitaires dans les newsletters. De plus, le trafic de recirculation sur le site a bondi de 52%[2].

  • Cela ne peut cependant pas vouloir dire le bon contenu à la bonne personne

En effet, un algorithme peut se baser sur des données contextuelles et des parcours, mais pourra difficilement comprendre les préférences de chacun, car celles-ci sont très rarement stables. La variété des goûts humains échappe toujours, pour le moment, aux machines. Toute personnalisation au niveau de l’individu devra, pour l’instant, être assistée par un curateur. Néanmoins, ce n’est que partie remise : selon une étude de Reuters, près des trois quarts (72%) des acteurs des médias prévoient d’expérimenter activement l’I.A afin d’améliorer les recommandations et d’accroître l’efficacité de la production[3].

Monétisation

La monétisation étant l’un des sujets les plus importants pour les médias, de nombreux cas d’usages commencent à émerger sur ce domaine, de l’engagement client aux espaces publicitaires.

  • Pay-wall

Beaucoup de grands journaux proposent un paywall (un arrangement par lequel l’accès est limité aux utilisateurs qui ont payé pour s’abonner au site), souvent sous la forme de blocage de contenu après la lecture de quelques articles. L’intelligence artificielle donne néanmoins accès à une proposition plus dynamique et moins coercitive. Prenons par exemple, le Neue Zürcher Zeitung, un groupe de presse Suisse qui utilise un algorithme combinant une centaine de critères pour déterminer à quel moment l’internaute est le plus à même de déclencher son engagement payant. Une fois le bon moment détecté, une landing page personnalisée apparaît pour le prospect. Avec un taux de conversion multiplié par 5 en trois ans, les résultats sont probants.

  • Real-time bidding

On peut imaginer que Le Real-Time Bidding (RTB), trouvera de nouvelles dimensions avec des cas d’usage notamment du côté des offreurs : un algorithme de Machine Learning pourrait optimiser la sélection des demandeurs, gérer les coûts de transfert des données, améliorer la visibilité des performances, éviter la fraude ou encore vérifier la qualité des publicités. De tels exemples sont néanmoins encore très rares sur le marché à ce jour.

Transformation par l’I.A, mode d’emploi

On le voit bien, par la multitude et l’ampleur de ses impacts sur le fonctionnement des groupes médias traditionnels, l’IA est en fait un véritable moteur de transformation pour les années à venir.

Quels sont les pièges à éviter : faux blocages et vrais écueils ? Comment s’y prendre et par où commencer ?

  1. Ne pas s’arrêter sur les faux blocages

Les groupes médias comme d’autres groupes ont perdu et continuent à perdre du temps, freinés par de mauvais prétextes

  • L’adoption par les utilisateurs est compliquée ?

Aujourd’hui, ce n’est pas le problème car il n’y a pas réellement d’expérimentation IA à l’échelle. Demain, quand cela existera, il faudra juste co-construire avec les utilisateurs : on sait donc comment s’y prendre !

  • Vos données sont de mauvaise qualité 

Certes, mais on ne peut pas savoir ce qu’est une donnée de qualité sans l’objectiver par rapport à une finalité concrète.

  • Vos Métiers et votre SI sont trop silotés ?

Oui mais rien ne sert d’essayer de dé-siloter artificiellement sans avoir au préalable de finalité claire : #data driven, oui !, #data centric, non !)

  • Votre gouvernance de données est insuffisante ?

Attention aux gouvernances factices et « hors-sol » dont les acteurs ne comprennent pas le sens ! La gouvernance doit être une conséquence de la mise en œuvre des cas d’usage IA et non un prérequis.

  • Manque de compétences ?

Les compétences manquantes ne sont pas forcément celles que l’on croit. Le volet performance algorithmique n’est plus un vrai frein versus l’engagement des métiers, la robustesse des algorithmes et les architectures des SI.

  • Votre entreprise souffre d’une culture data du top management insuffisante ?

Il ne doit plus s’agir de faire des learning expeditions mais d’engager réellement les responsables des métiers.

2. Eviter les vrais écueils

  • Eviter le « techno push » plutôt que le « business pull »… les solutions parfois brillantes qui arrivent au mauvais endroit.
  • Equilibrer l’investissement et l’attention entre le « cool-side » - startup, data-science, PoC, foires, selfmarketing… - et le « dark-side » : data-quality, engineering, architecture, volet RH & déformation des métiers….
  • Eviter le « techno push » plutôt que le « business pull »… les solutions parfois brillantes qui arrivent au mauvais endroit.
  • Equilibrer l’investissement et l’attention entre le « cool-side » - startup, data-science, PoC, foires, selfmarketing… - et le « dark-side » : data-quality, engineering, architecture, volet RH & déformation des métiers….
  • Sortir des fausses promesses (big-data, data-centricity, DQM, no-code, RPA…) qui ont générées des grosses déceptions.
  • Être réaliste sur les capacités des Data-scientists : ils sont foncièrement incompétents sur 90% d’un projet de valorisation de la donnée, il faut élargir leurs compétences pour qu’ils soient opérants !
  • Ne pas raisonner « hors sol » en essayant de copier le premier de la classe… plutôt qu’en dopant à l’IA ses propres Assets !
  1. Comment s’y prendre et par où commencer ?
  • Définir l’ambition IA

Prendre le temps de répondre à quelques questions clés, par exemple :

Quelles sont les opportunités offertes par l’IA au croisement avec la stratégie de votre groupe et celle des différents métiers ?

L’IA doit-elle porter nos efforts de diversification, de modernisation de l’offre éditoriale, ou d’optimisation du fonctionnement de la régie, du marketing, de la rédaction, de la distribution et des fonctions support ?

  • Définir les cas d’usage prioritaires & lancer les Smart Lab

Mettre à plat son patrimoine data à l’échelle du groupe et identifier les cas d’usage en support de l’ambition définie.

Prioriser ces cas d’usage sur la base de leur attractivité et de leur accessibilité (disponibilité et exclusivité des données, complexité technique, niveau de maturité du métier concerné, …)

Constituer une feuille de route de smart lab en lien avec cette priorisation pour valider le potentiel et la faisabilité des cas d’usage.

Déployer les ressources nécessaires pour mener à bien les smart lab : les équipes (métier, data science), les infrastructures, les données..

  • Industrialiser progressivement (« AI at scale »)

Industrialiser progressivement en fonction des résultats des PoC (proof of Concept) issues des smart lab.

Considérer plusieurs dimensions dans la phase d’industrialisation :

    • Data collection / sourcing, quality, integrity
    • Make or buy des solutions IA
    • Adaptation de l’architecture SI
    • Adaptation des processus métier et Gestion du changement auprès des métiers

Conclusion

L’I.A va influencer toutes les parties de la chaîne de valeur des médias, aidant les créateurs de contenu à être plus créatifs, les éditeurs de contenu à être plus productifs et les consommateurs à trouver le contenu correspondant à leurs intérêts.

L’intelligence artificielle s’inscrit néanmoins dans une logique de continuité des stratégies d’optimisation des activités et, en tant que telle, ne doit pas être considérée comme une révolution.

Cela ne minimise néanmoins pas le travail derrière son implémentation : en septembre dernier, le scientifique Peter Skomoroch a tweeté - "En règle générale, vous pouvez vous attendre à ce que la transition de votre entreprise vers l'apprentissage automatique soit environ 100 fois plus difficile que votre transition vers le mobile."

Vous souhaitez en savoir plus :


Nous contacter