Si la bulle de filtre n’est pas récente, elle a été popularisée en 2011 par Eli Pariser, avant de devenir en 2016 un enjeu public suite à la stupéfaction suscitée par le Brexit et l’élection de Donald Trump. Elle est définie par Pariser comme « l’état dans lequel se trouve un internaute lorsque les informations auxquelles il accède sur Internet sont le résultat d’une personnalisation mise en place à son insu. À partir des données collectées sur l’internaute, des algorithmes vont sélectionner les contenus qui seront visibles ou non par lui. Le terme de «bulle de filtre» renvoie à l’isolement produit par ce mécanisme : chaque internaute accède à une version différente du web, et reste dans une bulle unique et optimisée pour lui.»
En moyenne, le profil d’un utilisateur est ciblé selon 60 critères différents, comme l’âge, le sexe, l’historique de navigation, la géolocalisation, le navigateur, la marque d’ordinateur, le temps passé, la fréquence, les publicités regardées, les achats réalisés, les raccourcis. Agrémentées par une collecte massive de données personnelles sur nos goûts et nos opinions, des niches de navigation vont apparaitre, et la bulle de filtre va peu à peu enfermer l’utilisateur dans sa navigation et ses centres d’intérêt. Si en tant que consommateurs il peut être appréciable d’accéder à un ensemble de biens et services personnalisés, ces zones d’enfermement peuvent s’avérer, en tant que citoyen, un danger pour la démocratie. 60% des internautes n’ont pas connaissance de ces mécanismes. La récolte de données personnelles, leur utilisation et le consentement des internautes vis-à-vis de ces pratiques intérogent. Dans son livre « À quoi rêvent les algorithmes » (Seuil 2015), Dominique Cardon estime que chaque jour, plus de 3 milliards de requêtes sont effectuées sur près de 30 000 milliards de pages indexées par Google. Sur Facebook, 350 millions de photos et 4,5 milliards de like sont enregistrés quotidiennement. Il en résulte des bases de données précises sur les activités des internautes, et en renforçant de manière invisible les biais sociaux, les plateformes peuvent représenter un danger pour les démocraties. C’est particulièrement le cas dans l’information.
Les réseaux sociaux, nouveaux dealers d’info
Avec internet, l’information est désormais partout. Les réseaux sociaux ont transformé chaque individu en plateforme d’information, de diffusion et de partage. Les contenus -textes, vidéos, musiques, jeux- sont plus que jamais multi genres. La limite entre le divertissement et l’information tend à s’effacer, celle entre le journalisme et le militantisme aussi. Sur internet, on peut voir des hommes politiques « daber » et des influenceurs mobiliser des avions de nourriture pour lutter contre la famine en Afrique.
Facebook s’est peu à peu imposé comme un outil d’information. Voire de réinformation. La méfiance croissante envers les médias traditionnels, renforcée ces derniers mois, a conforté Facebook dans son rôle de nouveau média. Une étude de Reuters Institute menée en 2016 dans le monde révèle que 62% des Américains et 42% des Français utilisent Facebook dans le but de s’informer. La part des utilisateurs utilisant ce canal d’information augmente, particulièrement chez les jeunes. Selon une étude réalisée par l’observatoire du webjournalisme en mars 2017, les réseaux sociaux sont considérés comme un canal d’information pour 73% des 18-24 ans, une population qui les déclare utiliser au moins une fois par jour. Au-delà d’une plus grande facilité d’accès à l’information, c’est l’abondance des contenus disponibles sur internet qui a changé radicalement la manière dont l’information se consomme. Dans la course à l’attention, le contenu viral* est le grand gagnant. Selon une étude menée par l’université de Colombia, et l’institut français, 59% des liens postés sur Twitter ne seraient pas lus par ceux qui les partagent. Partager une information plutôt que la lire est devenu courant. La consommation d’information privilégie, dans son ensemble, le résumé du titre plutôt que le fond. Renforcés par le principe du « winner takes all », les algorithmes privilégient les contenus les plus consultés, aimés et partagés, laissant les articles moins viraux à l’abandon. Les titres « putassiers » deviennent légion. La presse papier n’a jamais été exempte de Unes racoleuses. Mais l’attractivité de la première page s’avérait suffisante pour vendre le journal, laissant les autres articles traiter de sujets de fond. Avec internet, cette règle a été chamboulée.
Chaque article doit exister par lui-même et se battre pour sortir de la masse. La course à l’audience met la qualité et la profondeur de l’information en péril : « Pendant des décennies, les journalistes des grands médias jouaient le rôle de gardiens et jugeaient de quelles idées méritaient d’être discutées publiquement. Dans la majorité des cas, ce que ces gardiens pensaient être acceptable se superposait à l’opinion générale » écrit la techno-sociologiste Zeynep Tufekci dans une tribune parue dans le New York Times. Aujourd’hui, la défiance vis-à-vis des médias est telle que la caution des médias produit parfois l’effet opposé. Les titres comme « Ce que les médias vous ont caché » ou « Tout finit par se savoir » se sont multipliés ces derniers mois. Les « gardiens » d’antan ont été remplacés par les algorithmes. Si un changement de « gardien » n’est pas négatif en soi, il ne doit pas conduire pour autant à s’affranchir de règles éthiques. La règle du pluralisme, par exemple, impose aux radios et aux TV le respect des temps de parole en période électorale. Le journalisme, au-delà d’un objectif économique, a une fonction de questionnement, de diversité et d’apprentissage. Des valeurs journalistiques qui semblent souvent éloignées d’algorithmes qui amplifient au contraire les biais sociaux. Ainsi, les contenus viraux s’imposent comme la normalité et les informations dissonantes disparaissent.
Pourtant, la confiance accordée aux plateformes est importante. 91% des recherches Google ne dépassent pas la première page de recherches, et dans un tiers des cas ne dépassent pas les trois premiers résultats. Le pouvoir d’influence est énorme. Afin d’enrichir et maintenir son algorithme secret, Google fait près de 600 modifications par an. Facebook aussi affine régulièrement son algorithme qui réduit de 1500 à 300 les contenus journaliers affichés sur les timeline. Les trois grands critères utilisés par Facebook sont : l’affinité (qui découle de la fréquentation des profils et des pages, des j’aime et des partages), la richesse des contenus (photo, vidéo, texte, fréquence) et la chronologie. Plus le contenu consommé est personnalisé, plus les instances contraires disparaissent et les certitudes sont confortées. C’est particulièrement vrai lorsque l’on aborde la politique. Suite à l’élection « surprise » de Donald Trump, Twitter et Facebook ont été pointés du doigt. Accusés d’avoir joué un rôle décisif dans la campagne, en filtrant les actualités et en isolant les internautes dans une bulle de filtres. Les idées dissonantes étant nécessaires dans tout débat, l’hyperpersonnalisation créée par les algorithmes devient alors un danger démocratique et interroge sur la déontologie des réseaux sociaux en tant que nouveaux dealers d’infos.
Politique et Fake News
Cet été, suite au vote du Brexit, la rédactrice en chef de The Guardian, Katharina Viner, a publié un article intitulé Comment la technologie a perturbé la vérité dans lequel elle s’insurge des contre vérités diffusée à la vitesse de l’éclair sur internet et les réseaux sociaux : « A l’ère numérique, il est plus facile que jamais de publier des fausses informations rapidement partagées et prises pour des vraies ». Le Brexit est le premier acte majeur de la politique de la contre-vérité. Pendant la campagne, les politiciens pro-Brexit ont accumulé à outrance des fausses informations et des mensonges pour se faire entendre, au détriment des faits. Le scandale du Pig Gate, présumant que David Cameron aurait, pendant sa période étudiante « mis ses parties intimes dans la gueule d’un cochon mort » est l’un des exemples les plus significatifs. L’histoire, tirée d’une biographie non autorisée, est d’abord reprise par le Daily Mail, avant de se répandre sur Twitter, puis l’ensemble des réseaux. Quelques jours plus tard, Isabel Oakeshott, coauteure de la biographie, admet à la TV ne pas posséder la preuve de ce scandale. Elle ajoute: « Nous n’avons pas pu aboutir à une preuve de la part de la source de ces allégations. Nous avons simplement retranscrit le récit de la source, sans dire si nous croyons ou pas que cela est vrai. »
À l’heure d’internet, chaque brève de comptoir peut prendre des proportions disproportionnées.
La montée d’idéologies radicales, portée par des actualités « bidon », diffusées et partagées massivement en ligne sans être régulées ou vérifiées, contribue à faire monter les extrêmes. Donald Trump dit merci ! La fibre émotionnelle sur laquelle s’appuient ces contenus se répand ainsi, en circuit fermé, selon des réseaux affinitaires. Parfois, ces contenus sont initiés par des wars roms de militants, qui multiplient les interventions sur les réseaux, cherchant à créer des effets viraux sur des thèmes partisans. Le militantisme se déguise en journalisme et convainc les indécis. Dans les contenus politiques, difficile de savoir où se trouve la limite entre faux et orienté. Au-delà de fake news isolées, c’est leur multiplication qui finit par changer la perception et le comportement des internautes. La propagande se construit dans la durée. Selon une analyse menée par Buzzfeed News en novembre 2016 sur Facebook, les 20 fausses actualités les plus populaires liées aux élections américaines ont été plus partagées que les 20 informations provenant des médias grand public. En France, les fakes news concernent principalement les photomontages. Peu d’articles peuvent vraiment être étiquetés comme faux, se basant majoritairement sur des faits réels où les contrevérités sont plutôt sous suggérés par l’utilisation de discours sentimentalistes et orientés.
Le journal Libération, en partenariat avec Linkinfluence, a publié en mars 2017 une enquête couvrant la période du 6 février au 5 mars, sur près de 22500 publications Facebook. Les articles polémiques, avec des angles partisans ne respectant pas toujours les règles éthiques du journalisme, sont privilégiés au détriment d’articles plus équilibrés. Les publications les plus virales ne proviennent pas, comme on pourrait s’y attendre, des pages ayant le plus de fans, comme Le Monde et le Figaro. Plus c’est houleux, plus ça tourne. Sur le podium des contenus les plus partagés pendant cette période, le site d’extrême gauche « Osons causer » truste les deux premières places et Tv liberté, un site d’extrême droite, est à la troisième. Mediapart, le premier média « officiel », n’arrive qu’à la 7e place.
Mark déclare prendre « la désinformation au sérieux »
L’entre soi existait bien avant les algorithmes. Gerald Bronner, sociologue, s’est intéressé aux notions de croyance et de vérité chez les individus. Dans son livre «La démocratie des crédules» paru aux éditions broché en 2013, il rappelle que les mécanismes de notre cerveau préfèrent confirmer nos représentations du monde plutôt que chercher à les contredire. Selon lui, l’Homme ne vérifiait pas d’avantage l’information qui lui était délivrée auparavant. Le changement majeur aujourd’hui est relatif à la crise de confiance qui sévit vis-à-vis des politiques et des médias, ce qui renforce le poids des nouveaux canaux d’information. Les associations, les écoles, les lieux de sortie… ont toujours contribué à la reproduction sociale et à des formes de bulle d’isolement. Mais internet et les algorithmes renforcent ces biais culturels. En 2002, Cass Sunstein, professeur de droit à Harvard, publiait un essai sur Republic.com où il dénonçait déjà les effets enfermant des algorithmes et leur potentielle nocivité sur le débat public. Selon lui, le principe de démocratie suppose un ensemble d’éléments comme les rues, les parcs, les librairies, les cafés où l’on rencontre un ensemble de personnes diverses ayant des opinions opposées. Les manifestations, les tracts, les affiches matérialisent une diversité d’expressions nécessaire à la compréhension des avis divergents. Or, si cette règle du « forum public » est préservée par internet, elle est remise en cause par les algorithmes et les bulles filtrantes, qui transforment « le citoyen en consommateur ».
Philippe Vion Dury, expert des algorithmes et auteur de « La nouvelle servitude volontaire » paru aux éditions Fyp en 2016, nous confirme : « Les journaux ont toujours eu des étiquettes politiques et peu de personnes achetaient à la fois Libération et Le Figaro. Mais dans l’achat d’un journal, il y a un rapport actif et conscient. Si je veux changer de journal, je peux le faire facilement. Avec la bulle de filtre, même si on veut la rompre, c’est un véritable parcours du combattant, voire impossible ».
Vers une responsabilisation des plateformes
Le 14 novembre, quelques jours après les résultats des élections américaines, le site américain TechCrunch, spécialisé dans les nouvelles technologies, demandait à Facebook de « combattre la peste des fausses informations avant de gâcher les élections d’autres pays ». Selon ce média, le réseau social a joué un rôle important dans l’élection de Trump, en n’agissant pas contre les fake news. Pire, le réseau social est accusé d’avoir bénéficié de revenus avec ces contenus. Peu importe que cela soit faux si ça rapporte, en somme. Dans la foulée, The Guardian et The Washington Post ont aussi demandé à Facebook de prendre ses responsabilités en assumant son rôle de nouveau média. Mis en porte à faux, Mark Zuckerberg a tout d’abord nié, en postant sur son compte Facebook le 13 novembre: « Notre but est de donner à chaque personne une voix […] Nous supposons que les gens comprennent ce qui est important dans leur vie et savent qu’ils peuvent s’exprimer pas seulement dans notre communauté, mais à travers l’ensemble de la démocratie. […] Plus de 99% de ce que voient les gens sur Facebook est authentique. Seulement une infime part concerne les fake news et Hoaxes ». Pourtant, quelques jours plus tard, le 18 novembre, Mark déclare prendre « la désinformation au sérieux » et annonce un ensemble de mesures pour lutter contre les faux contenus. Il incite la communauté à remonter les contenus suspects et à vérifier qu’ils ne bénéficient pas de publication sponsorisée « Nous ne voulons pas être des arbitres de la vérité, mais plutôt compter sur notre communauté et des tiers de confiance ». En janvier, le Facebook Journalisme Project va plus loin, et met à disposition des médias des outils de promotion adaptés. Dans le cadre de ce projet en France, neuf médias dont Libération, le Figaro et Le Monde deviennent des partenaires certifiés, s’engageant à signaler les fake news. Tout comme Facebook, Google a annoncé qu’il refuserait d’afficher les publicités des sites diffusant de fausses actualités. L’élection de Trump a amorcé une solution. Seulement amorcé, car au-delà de la monétisation des fake news, repenser les algorithmes à l’origine des bulles de filtres ne semble pas être à l’ordre du jour.
Culture, politique, police… les algos sont partout
La bulle de filtre concerne l’ensemble de notre vie numérique : Voyages, vêtements, alimentation, musique, films, etc. sont aujourd’hui personnalisés selon chaque profil. Un achat sur trois réalisé sur Amazon provient des recommandations de l’algorithme. Mais les algorithmes dépassent aujourd’hui largement notre vie numérique, et ont des répercussions sur notre vie citoyenne. Philippe Vion Dury nous explique : « Les algorithmes, c’est évidemment les GAFA*, mais pas seulement. Une grande partie de la sphère publique devient peu à peu organisée par des algorithmes. L’éducation, la santé, la police par exemple ». En France, l’affectation des élèves dans les établissements scolaires français repose sur deux algorithmes publics, Affelnet et APB. « En Amérique, de plus en plus d’universités testent les algorithmes pour les examens d’entrée, à la place d’interventions humaines, » complète-t-il. La police prédictive est aussi utilisatrice : « Les données spatio-temporelles permettent à échelle locale d’analyser un ensemble de données relatives à la sécurité, comme la météo, les données INSEE, les quartiers, les évènements, etc. Le croisement de certaines de ces données permet de déterminer des facteurs de dangerosité. Par exemple, il est prouvé que le risque de viol augmente lorsque l’éclairage public tombe en panne près d’une station de métro. Avec des algorithmes basés sur des données spatio-temporelles, une alerte permet d’envoyer des patrouilles en guise de prévention. Les algorithmes dans la police touchent aussi les individus. En France, cela existe maintenant depuis la loi antiterroriste. Les fameuses boites noires de la loi sur le renseignement, ce sont des algorithmes ! »
« Ni la seule réponse collective ni la seule réponse individuelle ne seront suffisantes pour réguler et règlementer les systèmes algorithmiques.» – Philippe Vion Dury
Les campagnes politiques ne sont aussi pas en reste. Les politiques s’appuient sur un ensemble de données leur permettant de créer des messages personnalisés en fonction de critères définis, par exemple la région d’habitation, la position vis-à-vis du mariage pour tous, l’Europe, etc. Les moyens de contacts –mail, réseaux sociaux, porte-à-porte, téléphone- sont aussi personnalisés à chaque cible. Jim Messina, directeur de campagne de Barack Obama, a expliqué dans un article du New York Times avoir réalisé un investissement sans équivalent de 100 millions de dollars dans les technologies, afin d’obtenir, de stocker et de traiter des milliards de données de toutes sortes.
Les algorithmes jouent également un rôle important dans des domaines qui semblent de prime abord peu critiques. En indiquant aux automobilistes le chemin le plus court, Waze provoque des répercussions locales concrètes. En empruntant des voies secondaires, le nombre d’accidents augmente, les routes des petites communes se dégradent plus vite, entrainant par ricochet une hausse des impôts locaux. Le domaine de l’Art est aussi particulièrement concerné. Dans la musique par exemple, les majors vont décider de produire des nouveaux artistes en se fiant aux datas. Les artistes et leur musique en deviennent de plus en plus lissés, le risque artistique étant écarté. Les films, les séries, les livres, la mode, etc. poursuivent cette même logique. Alors que jusqu’ici les créateurs et artistes influençaient la société, c’est maintenant la société qui influence les artistes… Demain, aimerons-nous quelque chose parce que nous sommes supposés l’aimer ?
Éthique et démocratie
Le filtrage créé par les bulles de filtre fait craindre un enfermement intellectuel et culturel préjudiciable à la vie civique et culturelle. L’allégorie de la caverne de Platon qui nous renverrait indéfiniment notre propre reflet n’a jamais été aussi actuelle. Préservés de toutes diversités et idées contradictoires, nous restons confrontés à nos propres conviction et tuons toute découverte par sérendipité. Ce conditionnement intellectuel est un terreau fertile pour les discours de propagande et de manipulation. En France, le gouvernement a mis en place un groupe d’experts afin de percer le secret des algorithmes dans l’intention de les réguler. Bonne chance à eux. En Allemagne, Angela Merkel a demandé à Facebook et Google de révéler leurs algorithmes. Très bonne chance à eux. Selon Philippe Vion Dury : « ni la seule réponse collective ni la seule réponse individuelle ne seront suffisantes pour réguler et règlementer les systèmes algorithmiques. Il faut mixer ces deux intentions fortes pour trouver le bon compromis entre trop réguler, et donc mettre la France sur le banc de touche, et laisser une liberté totale. Certaines initiatives entrepreneuriales sont très positives et permettent de démontrer qu’au service de bonnes causes, les algorithmes peuvent apporter beaucoup de valeur. Paul Duhan avec Bayes Impact en est la preuve, en utilisant les algorithmes pour lutter contre le chômage. Grâce au traitement des données, les demandeurs d’emploi sont mieux orientés. L’économie solidaire et durable doit saisir les opportunités offertes par les algorithmes. »
• Tous propos recueillis par GO, sauf mentions.