L’humain seul ne peut plus lutter contre la propagation des « fake news » (ou infox en Français) en tout genre, à cause de l’afflux abondant d’articles sur le Web, de la perfection de certains montages, et de la possibilité d’être influencé par ses propres opinions. L’algorithme a cet avantage sur l’humain de traiter des images en grandes quantités, en détectant des trucages invisibles à l’œil nu, et ce, de façon impartiale.
Plusieurs méthodes de vérification
En analysant le réseau, on découvre le cheminement du message, et l’on peut voir si ce dernier provient d’une agence de presse reconnue ou plutôt d’un site connu pour diffuser des « fake news ». Sont également surveillés les sites qui relaient des informations déjà existantes sans jamais produire de contenu. La limite de cette méthode est l’impossibilité de remonter toute la genèse d’une information sur les réseaux sociaux qui souhaitent garder leurs propres algorithmes secrets.
Pour pallier à ce manque, le projet Politoscope permet de cartographier la diffusion des tweets et ainsi l’évolution des communautés politiques, en ayant analysé les diverses réactions des utilisateurs sur plus de 80 millions de tweets. De plus, certains commentaires peuvent aider à déterminer la véracité d’un contenu.
Parfois, il suffit simplement d’examiner le contenu-même de l’information pour détecter les « fakes ». Une photo retouchée, un message sans rapport avec l’illustration, un niveau de langage trop familier, un discours biaisé avec de nombreuses exclamations… Les algorithmes peuvent détecter ces éléments.
Lutter contre le détournement d’images
Les chercheurs de l’Irisa travaillent en particulier sur les images. Sans avoir recours au montage, une image déjà existante peut être réutilisée avec une légende complètement différente (ces derniers jours, des internautes ont fait passer des images des manifestations en Espagne de 2012 pour des images de 2017).
On peut éviter ce type de confusion en consultant Google Images, mais ce dernier a ses limites. Il suffit d’inverser le sens d’une image ou la recadrer pour éviter d’être repéré. Le moteur de recherche de l’Irisa tient compte de ces modifications possibles et permet de mieux identifier les images sorties de leur contexte. Comment ? En détectant l’insertion d’une image dans une autre (notamment grâce à des doubles compressions dans un même fichier) ou en analysant les textes qui accompagnent les images.

Un rôle préventif contre la propagation des « fake news »
Les chercheurs de l’Irisa souhaitent créer des « plug-ins » intégrés aux navigateurs Internet, qui alerteraient les utilisateurs lorsque ceux-ci atterriraient sur une page suspecte. L’alerte ne serait pas bloquante, laissant à l’internaute la liberté de juger par lui-même. Dans ce cas, le « plug-in » pourrait être efficace, car contrôlé ni par l’humain, ni par un média, il est un outil entièrement impartial.
Quoi qu’il en soit, les internautes resteront libres de consulter ces sites d’information et de se forger leur propre opinion. Avec un regard éclairé, de préférence.