Bulle de filtres
La bulle de filtres[1] ou bulle de filtrage[1] (de lâanglais : filter bubble) est un concept dĂ©veloppĂ© par le militant d'Internet Eli Pariser. Selon Pariser, la « bulle de filtres » dĂ©signe Ă la fois le filtrage de l'information qui parvient Ă l'internaute par diffĂ©rents filtres ; et l'Ă©tat d'« isolement intellectuel » et culturel dans lequel il se retrouve quand les informations qu'il recherche sur Internet rĂ©sultent d'une personnalisation mise en place Ă son insu. Selon cette thĂ©orie, des algorithmes sĂ©lectionnent « discrĂštement » les contenus visibles par chaque internaute, en s'appuyant sur diffĂ©rentes donnĂ©es collectĂ©es sur lui. Chaque internaute accĂ©derait Ă une version significativement diffĂ©rente du web. Il serait installĂ© dans une « bulle » unique, optimisĂ©e pour sa personnalitĂ© supposĂ©e. Cette bulle serait in fine construite Ă la fois par les algorithmes et par les choix de l'internaute (« amis » sur les rĂ©seaux sociaux, sources d'informations, etc.).
Eli Pariser estime que ce phénomÚne est devenu commun sur les réseaux sociaux et via les moteurs de recherche. Des sites tels que Google[2], Facebook[3], Twitter ou Yahoo! n'affichent pas toutes les informations, mais seulement celles sélectionnées pour l'utilisateur, et de maniÚre hiérarchisée selon ses prédispositions supposées (y compris idéologiques et politiques)[4]. à partir de différentes données (historique, clics, interactions sociales), ces sites prédisent ce qui sera le plus pertinent pour lui. Ils lui fournissent ensuite l'information la plus pertinente (y compris du point de vue commercial et publicitaire), en omettant celle qui l'est moins selon eux. Si les algorithmes considÚrent qu'une information n'est pas pertinente pour un internaute, elle ne lui sera simplement pas présentée.
Médiatisé depuis les années 2010, le concept de bulle de filtres a été critiqué pour l'importance qu'il accorde aux algorithmes et aux mesures techniques de personnalisation[5]. Une étude nuance par exemple l'impact de l'éclatement des bulles de filtre sur notre capacité à nous remettre en question[6] et rappelle l'influence encore majeure de la télévision[7].
Enjeux
Grùce à l'Internet, l'information potentiellement disponible ne cesse de croßtre : elle est en théorie de plus en plus accessible, ce qui permettrait à un internaute proactif de découvrir de nombreux points de vue différents du sien[8]. Mais paradoxalement, selon Bakshy et al. (2015) et d'autres auteurs[9] - [10] - [11], l'accÚs réel à l'information de presse, aux opinions et à l'information est de plus en plus filtré par des algorithmes de moteurs de recherche, et/ou via les réseaux sociaux[12].
Des chercheurs ont montré qu'au sein de Facebook, le filtrage algorithmique puis le filtrage par les pairs limite le libre-arbitre de l'internaute en ne lui présentant pas une large part de l'information (et notamment en limitant son accÚs à des données ou interprétations qui seraient a priori plus difficiles à adopter pour lui[13] - [14]) et en ne présentant souvent qu'une partie des facettes d'une information. Les brÚves d'information partagées de pair à pair par des millions d'utilisateurs proviennent en effet trÚs majoritairement de sources alignées sur l'idéologie ou les préférences de l'internaute. Le lecteur rencontre 15 % de contenu transversal en moins dans ses fils d'actualité (à cause du classement algorithmique) et il cliquera 70 % moins facilement sur des informations venant de sources inhabituelles pour lui.
Comme dans une chambre d'écho, ce phénomÚne tendrait à s'auto-entretenir en reproduisant majoritairement les opinions, croyances et perspectives de l'utilisateur en formant un cercle vicieux.
Effets psychosociaux supposés
Un internaute d'une orientation politique donnée verrait plus de contenus favorables à cette orientation[4]. Il serait moins soumis à des points de vue contradictoires[15] car les algorithmes sélectionneraient pour lui les contenus les plus pertinents, ceux qui lui plaisent le plus. Par exemple, un internaute qui serait identifié comme « de gauche » par le site, se verrait alors proposer moins de contenus « de droite ».
Des requĂȘtes similaires peuvent alors donner des rĂ©sultats trĂšs diffĂ©rents. Supposons par exemple que deux personnes, une plutĂŽt Ă droite politiquement et l'autre plutĂŽt Ă gauche, recherchent le terme « BP ». Les utilisateurs « de droite » trouveront des informations sur les investissements dans la British Petroleum. Les utilisateurs « de gauche » obtiendront des informations sur la marĂ©e noire dans le golfe du Mexique[16]. Il en va de mĂȘme pour la prĂ©sentation des informations relatives Ă une guerre, par exemple la guerre d'Irak[17] ou plus rĂ©cemment les informations donnĂ©es aux partisans de Donald Trump aux Ătats-Unis[18].
La bulle de filtres peut influencer les relations sociales et les réseaux sociaux et inversement. Dans certains réseaux sociaux, la personnalisation algorithmique masquerait les messages les moins pertinents, ceux qui seraient les moins cliqués par l'utilisateur. Moins on interagit avec un « ami » Facebook, moins les messages qu'il publie nous seront visibles, moins l'on sera susceptibles d'interagir avec lui. Pariser met en avant la « disparition » des messages de ses amis conservateurs de son flux d'activité Facebook. Alors qu'il avait ajouté des « amis » conservateurs pour lire leur opinion, la personnalisation ne lui suggérait plus les publications venant de ces personnes. Selon l'algorithme, cela n'était pas pertinent pour Pariser : il n'était pas censé cliquer ou lire ces opinions.
La bulle de filtre réduirait donc le champ informationnel de l'internaute ; Selon A Saemmer (2017), de nombreux étudiants disent consulter la presse en ligne exclusivement ou principalement en suivant des liens postés par leurs amis sur les réseaux sociaux, c'est-à -dire sans consulter la « une » ou le sommaire des journaux[19].
Selon Messing (2012), dans un rĂ©seau social, des appuis sociaux plus forts peuvent conduire Ă un buzz qui augmente la probabilitĂ© qu'un internaute choisisse de lire un contenu qui sans cela ne lui aurait pas Ă©tĂ© prĂ©sentĂ©, ce qui pourrait dans une certaine mesure contrebalancer son exposition sĂ©lective initiale[11]. NĂ©anmoins, en 2016 dans un long article, longuement commentĂ© depuis, Katharine Viner, rĂ©dactrice en chef du journal The Guardian, estime que le numĂ©rique a considĂ©rablement Ă©branlĂ© notre rapport aux faits et que les rĂ©seaux sociaux, en particulier, sont grandement responsables de la victoire des partisans (populistes) du rĂ©fĂ©rendum sur l'appartenance du Royaume-Uni Ă l'Union europĂ©enne, bien qu'ils aient eux-mĂȘmes reconnu que leurs arguments Ă©taient mensongers. Viner affirme que si les rĂ©seaux sociaux colportent volontiers des rumeurs et des « mensonges avĂ©rĂ©s », cela tient aux bulles de filtres qui, en fonction des pages consultĂ©es, renvoient les utilisateurs Ă ce qu'ils ont l'habitude de consulter et qui, par consĂ©quent tendent Ă les conforter dans leurs opinions au lieu de stimuler leur esprit critique[20].
RĂ©seaux sociaux
Le succĂšs du Web social et la surcharge dâinformation que ce succĂšs engendre ont rapidement provoquĂ© le besoin de trier lâinformation, et de dĂ©velopper les capacitĂ©s de filtrage des plateformes interactionnelles. Les moteurs de recherche comme Google ou les rĂ©seaux sociaux comme Facebook ou Twitter sont programmĂ©s pour mettre en avant de lâinformation dite « pertinente », autrement dit, susceptible dâintĂ©resser lâutilisateur et dâĂ©carter lâinformation jugĂ©e moins pertinente. La popularitĂ© des rĂ©seaux sociaux rĂ©side dans cette capacitĂ© Ă prĂ©senter efficacement et rapidement du contenu intĂ©ressant pour lâutilisateur[21]. Le filtrage fonctionne grĂące Ă la mise en place dâun algorithme. Lâinformaticien GĂ©rard Berry parle « dâune façon de dĂ©crire dans ses moindres dĂ©tails comment procĂ©der pour faire quelque chose »[22]. Sur internet, les algorithmes instaurent une hiĂ©rarchie dans lâapparition des contenus sur lâinterface des utilisateurs. Ils influencent chacun Ă leur maniĂšre lâaccĂšs Ă lâinformation et fournissent une expĂ©rience particuliĂšre et personnalisĂ©e pour chaque utilisateur. Par exemple, sur les rĂ©seaux sociaux, ce sont les « likes » ou les « retweets » qui provoquent la mise en Ă©vidence de certains contenus par rapport Ă dâautres, jugĂ©s alors moins pertinents[23].
Twitter
Depuis 2016, le rĂ©seau social Twitter sâest vu introduire un nouveau fil algorithmique. Les utilisateurs qui voyaient auparavant les tweets (les publications faites sur le rĂ©seau) apparaĂźtre selon un ordre antichronologique verront Ă la place ces publications selon un ordre de prĂ©fĂ©rence dĂ©fini par lâalgorithme[24]. Lâalgorithme opĂšre sa sĂ©lection de Tweets selon plusieurs critĂšres parmi lesquels peuvent ĂȘtre mentionnĂ©s : le nombre de retweet (le nombre de fois que le tweet est publiĂ© Ă nouveau sur le rĂ©seau), si lâutilisateur est en forte interaction avec la personne qui tweet ou si cette derniĂšre fait partie de ses favoris. Lâalgorithme Ă©value ainsi la pertinence dâun tweet et affichera en haut de flux ceux qui sont le plus susceptibles dâintĂ©resser lâinternaute. La suite des tweets, elle, apparaĂźtra comme avant, selon un ordre antichronologique[25]. ConcrĂštement, la rĂ©organisation chronologique du rĂ©seau est marquĂ©e par lâintroduction de deux nouvelles rubriques. Dâabord, le « Timeline classĂ© » ou « chronologie classĂ©e » qui fait apparaĂźtre les tweets pertinents en haut du flux aprĂšs une Ă deux heures de non-utilisation du rĂ©seau. Et la rubrique « Vous pourriez aimer » qui remplace lâancienne « En votre absence », qui se prĂ©sente comme une fonction complĂ©mentaire et qui recense des tweets moins rĂ©cents puisquâelle nâapparaĂźt que plusieurs jours aprĂšs la derniĂšre connexion. Lâapport de ce nouvel algorithme Ă Twitter est multiple selon la firme. Lâintroduction dâun algorithme permet Ă Twitter de mieux connaĂźtre ses utilisateurs et la maniĂšre dont ils interagissent sur le rĂ©seau. Ensuite, il permet dâadapter le contenu en fonction de lâutilisateur et dâainsi augmenter le dynamisme, lâengagement et lâattention sur la plateforme. Enfin, le systĂšme est suffisamment complexe pour offrir Ă chacun des utilisateurs de Twitter une expĂ©rience personnalisĂ©e sans que ceux-ci se retrouvent toujours face aux mĂȘmes tweets quand ils se connectent[26].
Facebook
Le rĂ©seau social compte plus dâun milliard dâutilisateurs dans le monde. Câest pourquoi il est impossible pour le site web crĂ©Ă© par Mark Zuckerberg en 2004, de montrer tout ce que « nos amis » postent sur la toile : Facebook doit sĂ©lectionner les informations. Câest grĂące Ă un algorithme qui se nomme EdgeRank conçu en 2006[27] et abandonnĂ© au profit de Newsfeed Ranking Algorithm[28] en 2011 que le rĂ©seau social trie ses informations Ă lâaide de 100 000 paramĂštres.
Parmi ces paramĂštres, il y en a quatre qui sont les plus connus[29] :
- le CrĂ©ateur : lâintĂ©rĂȘt que suscite celui qui a publiĂ© le contenu ;
- le Post : lâengagement que le post a engendrĂ© ;
- le Type : le format que lâutilisateur du rĂ©seau social prĂ©fĂšre (vidĂ©os, images, statutsâŠ) ;
- la RĂ©cence : en fonction de la derniĂšre date de connexion de lâutilisateur, on peut juger la fraĂźcheur du contenu publiĂ©.
Lâobjectif pour Facebook est de montrer Ă chaque utilisateur ce qui va lâintĂ©resser le plus. Et ce quâil aimera, commentera ou partagera plus facilement. Le but est de crĂ©er le plus de rĂ©actions du cĂŽtĂ© des consommateurs du rĂ©seau social. Facebook sĂ©lectionne donc des contenus qui seront susceptibles dâĂȘtre intĂ©ressants pour les internautes. Lâalgorithme va procĂ©der Ă lâaide de diffĂ©rentes Ă©tapes qui vont attribuer un score de pertinence Ă chaque publication et donc dĂ©terminer si celle-ci sera publiĂ©e ou non sur Facebook. Tout dâabord une sĂ©rie de questions est posĂ©e comme : Quelles histoires ont Ă©tĂ© publiĂ©es par les amis ? Qui a postĂ© ces histoires ? Comment on se comporte pour rĂ©agir Ă ce contenu ? Ainsi que lâintĂ©rĂȘt portĂ© Ă cette publication. Toutes ces interrogations vont ensuite ĂȘtre calquĂ©es sur chaque post prĂ©sent sur le rĂ©seau social. Les posts publiĂ©s par les consommateurs du site web vont ensuite ĂȘtre analysĂ©s pour leur donner une importance. Comme par exemple : les commentaires et les tags des amis, quand est-ce que le post a Ă©tĂ© publiĂ©, les retours nĂ©gatifs donnĂ©s Ă lâauteur, la frĂ©quence Ă laquelle les posts sont publiĂ©sâŠ
AprĂšs, lâalgorithme va faire plusieurs prĂ©dictions :
- est-ce que lâutilisateur va commenter / partager le post publiĂ© ;
- combien de temps va-t-il passer Ă lâanalyser, le lire ;
- est-ce quâil va donner une valeur Ă ce post ?
Tous ces critĂšres sont analysĂ©s avec le fait quâil y ait un clickbait (signifie littĂ©ralement « appĂąt Ă clics »)[30], de la nuditĂ© ou non sur la publication[28]. Ces deux facteurs peuvent toucher nĂ©gativement le post. Chaque post reçoit une note en fonction des diffĂ©rents facteurs avec lesquels il a Ă©tĂ© analysĂ©. Ce score est attribuĂ© de façon personnelle Ă chaque personne et est donc en lien avec notre profil, nos relations et nos habitudes sur le rĂ©seau social.
Instagram
Depuis son rachat par Facebook en 2012, les principes de lâalgorithme dâInstagram sont calquĂ©s sur ceux de Facebook. La parution des publications dans le flux se fait dĂ©sormais sur base de 3 critĂšres et non par ordre antĂ©-chronologique[31].
- La popularitĂ© des publications selon le temps de la visualisation dâune vidĂ©o, celui dâune dĂ©livrance dâun score suivant la consultation dâun profil ou encore lâengagement.
- Le site fait une estimation, suivant la catĂ©gorie de celle-ci, si lâheure de publication est favorable ou non.
- Les interactions, la dĂ©termination de lâimportance de comptes et de sujets sâĂ©tablit suivant le nombre de mention « jâaime » et de commentaires de lâutilisateur dâInstagram (internaute).
La popularitĂ© des publications et lâengagement sont les critĂšres les plus importants. Cet algorithme a Ă©tĂ© mis en place afin que les internautes interagissent sur le rĂ©seau. Les stories (publications Ă©phĂ©mĂšres[32]) sont une fonctionnalitĂ© basĂ©e sur le principe du rĂ©seau social Snapchat. Mais contrairement Ă celui-ci, les stories dâInstagram sont classĂ©es par lâalgorithme qui emploie les donnĂ©es de Facebook. Lâalgorithme dâInstagram rĂ©amĂ©nage lâordre dâapparition des publications, car il semblerait que les internautes ne verraient que 30 % de leur fil dâactualitĂ© et passeraient Ă cĂŽtĂ© de 70 %. Câest pour cela que lâalgorithme fait remonter les publications qui pourraient potentiellement intĂ©resser lâinternaute et ainsi ne plus suivre la chronologie des publications[33].
YouTube
YouTube se diffĂ©rencie des autres rĂ©seaux sociaux en Ă©tant un site dâhĂ©bergement de vidĂ©os. NĂ©anmoins, celui-ci parvient Ă plonger les utilisateurs dans une bulle de filtre. Son algorithme sĂ©lectionne des contenus pour les internautes et il renforce ainsi leurs opinions. Ă la fin du visionnage dâune vidĂ©o sur la plateforme, lâalgorithme propose Ă lâinternaute en recommandation de visionner dâautres contenus Ă©tant dĂ©crits comme similaires. Cette fonction maintient le visionneur dans une mĂȘme idĂ©e sans le confronter Ă du contenu opposĂ©.
Quels sont les critÚres qui vont déterminer le contenu à visionner[34] ?
- Lâhistorique de lâutilisateur : lâalgorithme va analyser les crĂ©ateurs et les sujets que regarde le plus souvent le visionneur afin de lui proposer un contenu similaire. On remarque que si un internaute regarde plusieurs vidĂ©os dâune mĂȘme chaĂźne, YouTube lui proposera ensuite principalement les capsules de ce crĂ©ateur.
- Le comportement des autres utilisateurs : des personnes effectuant le mĂȘme type de recherche, visionnant un mĂȘme contenu ou Ă©tant situĂ©es dans la mĂȘme dĂ©mographie sont qualifiĂ©es « dâutilisateurs similaires ». De ce fait, leurs recherches influencent le contenu de lâutilisateur.
- Le taux de clic : une vidĂ©o peut ĂȘtre proposĂ©e Ă plusieurs reprises dans les recommandations et les suggestions. Si le visionneur ne clique pas dessus, elle ne lui sera plus suggĂ©rĂ©e.
- La nouveauté : les nouvelles capsules sorties par un créateur avec lequel un visionneur est en interaction lui sont montrées.
Le site possĂšde une catĂ©gorie « tendances » oĂč diffĂ©rents types de vidĂ©os sont proposĂ©s. Lâalgorithme nous propose ces capsules car il estime que le contenu est de bonne qualitĂ©. Pour que le programme informatique puisse Ă©valuer la qualitĂ© dâune vidĂ©o, il analyse le temps moyen de visionnage (watchtime)[35] des utilisateurs. Plus une vidĂ©o est regardĂ©e longtemps, plus elle est susceptible de possĂ©der un bon contenu que dĂšs lors lâalgorithme proposera aux visionneurs.
En 2020, une équipe de chercheurs du Centre Marc Bloch a publié une étude dans le journal PLoS ONE montrant que les vidéos avec un grand nombre de vues ont tendance à favoriser les bulles de filtres - c'est-à -dire le confinement de l'utilisateur à des vidéos similaires à celle qu'il est en train de visionner - alors que celles avec un faible nombre de vues offrent des suggestions plus diverses[36].
De maniĂšre gĂ©nĂ©rale, lâintroduction dâalgorithme sur les rĂ©seaux sociaux peut mener Ă des risques. En effet, des universitaires comme le sociologue Dominique Cardon considĂšre que les algorithmes sur les rĂ©seaux sociaux tendent Ă reproduire le rĂ©el et perpĂ©tuer les structures sociales existantes. Ainsi, ces rĂ©seaux sociaux poussent leurs utilisateurs Ă consommer des contenus quâils consultent dĂ©jĂ ce qui peut provoquer une sorte de cloisonnement des utilisateurs dans leur propre conformisme : ils ne verront que le contenu qui leur sera donnĂ© Ă voir, ils risqueraient alors dâenfermer leurs membres dans une « bulle de filtre »[23].
Les bulles de filtres de YouTube conduisent certaines personnes à se persuader que la terre est plate (platosphÚre), dans la communauté des platistes[37].
Solutions et initiatives
Face à cette situation, plusieurs solutions existent ou semblent envisageables. Chacun pourrait mieux faire valoir son « droit à l'information » et volontairement sortir de sa bulle de filtres, en allant volontairement rencontrer des points de vue différents, voire opposés aux siens, et aussi par exemple cultiver un regard critique en étudiant des points de vue émis par des articles relus par des pairs, publiés aprÚs le feu de l'actualité, via Google scholar par exemple.
La Cour europĂ©enne des droits de l'homme rappelait le 8 juillet 1976 que « Le principe gĂ©nĂ©ral de tout traitement juridique et Ă©thique de l'information doit se fonder sur une distinction claire entre opinion et information. La premiĂšre concerne l'expression de pensĂ©es, de croyances et de jugements de valeur, et la seconde a trait Ă des donnĂ©es et Ă des faits, faits qui peuvent faire l'objet d'une information «ou qui peuvent ĂȘtre d'une importance publique» »[38].
Le PDG de Facebook, Mark Zuckerberg, a minimisĂ© la portĂ©e de ce phĂ©nomĂšne sur la plateforme qu'il a cofondĂ©e[39], mais l'entreprise a tout de mĂȘme commencĂ© Ă travailler sur des mesures pour en limiter l'impact[40].
Des sites spĂ©cialisĂ©s se sont Ă©galement montĂ©s, principalement aux Ătats-Unis, permettant Ă chacun de prendre conscience de ce phĂ©nomĂšne, comme allsides.com[41] - [42] ou hifromtheotherside.com[43].
Certains moteurs de recherche non personnalisĂ©s font valoir que leur absence de tri idĂ©ologique des rĂ©sultats de recherche permettait de lutter contre les bulles de filtres. En effet, comme aucune donnĂ©e personnelle n'est collectĂ©e ou Ă©valuĂ©e, aucune bulle de filtre ne peut ĂȘtre crĂ©Ă©e. C'est par exemple le cas de Qwant ou Ecosia. Enfin, des extensions ont Ă©tĂ© dĂ©veloppĂ©es pour des navigateurs web Google Chrome ou Mozilla Firefox permettant de mettre en lumiĂšre les bulles de filtres, et contextualiser certaines informations.
En France, le journal Le Drenche propose pour tous les sujets deux avis diffĂ©rents et opposĂ©s, avec l'objectif affichĂ© de lutter contre les bulles de filtres[44] ; c'est une technique journalistique connue, qui sous couvert de neutralitĂ© tend cependant parfois Ă privilĂ©gier, voire Ă rechercher les extrĂȘmes au dĂ©triment des points de vue nuancĂ©s et/ou du pluralisme des opinions.
Critiques du concept
La mĂ©diatisation de la thĂ©orie de la bulle de filtres d'Eli Pariser se veut participer de l'esprit critique, mais d'autres lectures sont possibles. Pour AndrĂ© Gunthert dans Et si on arrĂȘtait avec les bulles de filtre ? (AndrĂ© Gunthert est maĂźtre de confĂ©rence Ă lâĂcole des hautes Ă©tudes en sciences sociales (EHESS), oĂč il occupe la chaire d'histoire visuelle), « le systĂšme de sĂ©lection de Facebook ne modifie que de 1 % lâexposition aux contenus politiques de camps opposĂ©s »[45] ; il donne la parole Ă Dominique Cardon selon qui « la bulle, câest nous qui la crĂ©ons. Par un mĂ©canisme typique de reproduction sociale. Le vrai filtre, câest le choix de nos amis, plus que lâalgorithme de Facebook. »
Notes et références
- « bulle de filtres », Grand Dictionnaire terminologique, Office québécois de la langue française (consulté le ).
- Les bulles de filtres mises en place par Google pour faciliter notre recherche présenteraient les informations en fonction « de 57 critÚres, parmi lesquels notre historique de recherche, notre localisation, le type d'ordinateur que nous utilisons, notre langue, etc. » Gérald Bronner, La Démocratie des Crédules, Presses universitaires de France, (lire en ligne), p. 59.
- Wormser G (2017). Building Global Community: La tentation hégémonique de Mark Zuckerberg et de Facebook. Sens Public.
- Stroud N (2008), Media use and political predispositions: Revisiting the concept of selective exposure. Polit. Behav. 30, 341â366 |Doi:10.1007/s11109-007-9050-9.
- (en) « The truth behind filter bubbles: Bursting some myths », sur Reuters Institute for the Study of Journalism (consulté le ).
- « Les âbulles de filtresâ : est-ce vraiment la faute d'Internet ? », sur www.franceinter.fr (consultĂ© le ).
- Will Oremus, « Dans leur bulle (de filtres), les internautes? Pas si simple⊠», sur Slate.fr, (consulté le ).
- Bakshy E, I. Rosenn, C. Marlow, L. Adamic, Proc. 21st Int. Conf. World Wide Web Pages 1201.4145 (2012).
- W. L. Bennett, S. Iyengar (2008), A new era of minimal effects? The changing foundations of political communication. J. Commun. 58, 707â731. doi:10.1111/j.1460-2466.2008.00410.x .
- Pariser E (2011), The Filter Bubble: What the Internet Is Hiding from You (Penguin Press, London).
- S. Messing, S. J. Westwood (2012), Selective exposure in the age of social media : Endorsements trump partisan source affiliation when selecting news online. Communic. Res. 41, 1042â106.
- Eli Pariser, The Filter Bubble: What the Internet Is Hiding from You, Penguin Press (New York, mai 2011) (ISBN 978-1594203008).
- Bennett W.L & Iyengar S (2008), A new era of minimal effects? The changing foundations of political communication. J. Commun. 58, 707â731 | doi:10.1111/j.1460-2466.2008.00410.x.
- Sunstein C.R (2007), Republic.com 2.0 (Princeton Univ. Press, Princeton, NJ).
- (en) USA Today, 29 avril 2011, The Filter Bubble by Eli Pariser. « Pariser explique que nous fournir uniquement ce qui nous est familier et confortable nous ferme aux nouvelles idĂ©es, aux nouveaux sujets et Ă des informations importantes. » â ConsultĂ© le 31 janvier 2012.
- (en) Interview d'Eli Pariser par Lynn Parramore, The Atlantic, 10 octobre 2010 « Depuis le 4 dĂ©cembre 2009, Google a Ă©tĂ© personnalisĂ© pour chacun. Quand ce printemps deux de mes amis ont tapĂ© « BP » sur Google, l'un a obtenu un ensemble de liens portant sur les possibilitĂ©s d'investissement dans BP. L'autre a obtenu des informations sur la marĂ©e noire. » â ConsultĂ© le 31 janvier 2012.
- S. Kull, C. Ramsay, E. Lewis (2003) , Misperceptions, the media, and the Iraq War. Polit. Sci. Q. 118, 569â598. doi:10.1002/j.1538-165X.2003.tb00406.x.
- S. Messing, S. J. Westwood(2012), Selective exposure in the age of social media: Endorsements trump partisan source affiliation when selecting news online. Communic. Res. 41, 1042â1063 .
- Saemmer A (2017) InterprĂ©ter lâhyperlien en contexte pĂ©dagogique: Ă©lĂ©ments dâune sĂ©miotique sociale. Le français aujourd'hui, (1), 25-34.
- How technology disrupted the truth, Katharine Viner, The Guardian, 12 juillet 2016
Traduction en français : Comment le numĂ©rique a Ă©branlĂ© notre rapport Ă la vĂ©ritĂ©, Le Courrier international, 9 septembre 2016. - Bernhard Rieder, « De la communautĂ© Ă lâĂ©cume : quels concepts de sociabilitĂ© pour le « web social » ? », tic&sociĂ©tĂ©, no Vol. 4, n° 1,â (DOI 10.4000/ticetsociete.822, lire en ligne, consultĂ© le ).
- « Quâest ce quâun algorithme ? », Iakaa Blog,â (lire en ligne, consultĂ© le ).
- « La sociĂ©tĂ© des calculs sous la loupe de la sociologie - A quoi rĂȘvent les algorithmes - Dominique Cardon [lecture] », sur maisouvaleweb.fr (consultĂ© le ).
- « L'algorithme de Twitter vous est enfin dĂ©voilĂ© ! », Les digitaux - TEM Marketing Digital,â (lire en ligne, consultĂ© le ).
- « Comment fonctionne l'algorithme Twitter ? - Blog du ModĂ©rateur », Blog du ModĂ©rateur,â (lire en ligne, consultĂ© le ).
- Will Oremus et Antoine Bourguilleau, « Voici comment fonctionne l'algorithme de Twitter », Slate, (consulté le ).
- « Comment fonctionne lâalgorithme de Facebook ? », sur www.actance.net (consultĂ© le ).
- « Comment fonctionne l'algorithme Facebook ? - Blog du ModĂ©rateur », Blog du ModĂ©rateur,â (lire en ligne, consultĂ© le ).
- Martin Untersinger, « Comment fonctionne l'algorithme de Facebook ? », Le Monde,â (ISSN 1950-6244, lire en ligne, consultĂ© le ).
- « Clickbait », sur definitions-marketing.com (consulté le ).
- « Comment fonctionne lâalgorithme dâInstagram ? », sur www.actance.net (consultĂ© le ).
- « Tout ce quâil faut savoir sur les Stories dâInstagram », Presse-Citron,â (lire en ligne, consultĂ© le ).
- « L'algorithme d'Instagram : comment en tirer parti ? », French,â (lire en ligne, consultĂ© le ).
- « Comment fonctionne l'algorithme YouTube ? ⹠GOJI », sur GOJI (consulté le ).
- « YouTube : les 2 principaux changements d'algo fin 2016 », WebRankInfo,â (lire en ligne, consultĂ© le ).
- (en) Camille Roth, Antoine MaziĂšres et Telmo Menezes, « Tubes and Bubbles--Topological confinement of YouTube recommendations », PLOS ONE, vol. 15, no 4,â , e0231703 (ISSN 1932-6203, PMID 32315329, PMCID PMC7173795, DOI 10.1371/journal.pone.0231703, lire en ligne, consultĂ© le ).
- Fabien Goubet, « YouTube, cette fabrique de «platistes» », Le Temps,â (lire en ligne, consultĂ© le ).
- in Rapport sur l'éthique du journalisme ; Projet de recommandation adopté à l'unanimité par la commission le 8 juin 1993 ; commission de la culture et de l'éducation ; parlement européen.
- « Facebook, faiseur de rois de lâĂ©lection amĂ©ricaine ? », Le Monde.fr,â (lire en ligne, consultĂ© le ).
- (en) Facebook Is Testing This New Feature to Fight âFilter Bubblesâ.
- (en) « Allsides », sur allsides.com.
- (en) Jacqueline Conciatore Senter, Navigating Filter Bubbles, Cavendish Square Publishing, LLC, , 64 p. (ISBN 978-1-5026-4131-1, lire en ligne), p. 37.
- (en-US) « Hi From the Other Side ».
- « Le concept », Le Drenche / Ouest-France, (consulté le ).
- AndrĂ© Gunthert (2016) Et si on arrĂȘtait avec les bulles de filtre?, 13 novembre.
Voir aussi
Bibliographie
- Boyadjian, J., Olivesi, A., & Velcin, J. (2017). Le web politique au prisme de la science des données. Réseaux, (4), 9-31.
Bibliographie soutenant la théorie d'Eli Pariser
- Eli Pariser, The Filter Bubble: What the Internet Is Hiding from You, Penguin Press (New York, mai 2011) (ISBN 978-1594203008).
- Pariser, TED Talk. 11 février 2011
- Gentzkow, J. M. Shapiro (2011) Ideological segregation online and offline. Q. J. Econ. 126, 1799â1839 DOI 10.1093/qje/qjr044
Bibliographie critique
- AndrĂ© Gunthert, Et si on arrĂȘtait avec les bulles de filtre?, 13 novembre 2016.
- Alexis Delcambre, Alexandre Piquard, « Facebook, faux ami de la démocratie », Le Monde, 3 novembre 2016, p. 14-15.
- Gilbert Simondon, Du mode dâexistence des objets techniques, Paris, Aubier, 1958.
- Aude Lancelin, Le Monde libre, Paris, LLL, 2016.
- Eytan Bakshy, Solomon Messing, Lada Adamic, âExposure to ideologically diverse news and opinion on Facebookâ, Science, 7 mai 2015.
Articles connexes
Liens externes
- (en) « thefilterbubble.com »(Archive.org ⹠Wikiwix ⹠Archive.is ⹠Google ⹠Que faire ?) (consulté le ) le site du livre d'Eli Pariser
- Présentation du concept dans le manifeste de DuckDuckGo
- (en) https://spreadprivacy.com/google-filter-bubble-study/# Présentation d'une étude faite par DuckDuckGo le 4 décembre 2018
- La vĂ©rité⊠si je veux. De la nature dâun fait Ă lâĂšre des bulles de filtrage, Edgar Szoc, BePax, 22 dĂ©cembre 2016