AccueilđŸ‡«đŸ‡·Chercher

Bulle de filtres

La bulle de filtres[1] ou bulle de filtrage[1] (de l’anglais : filter bubble) est un concept dĂ©veloppĂ© par le militant d'Internet Eli Pariser. Selon Pariser, la « bulle de filtres Â» dĂ©signe Ă  la fois le filtrage de l'information qui parvient Ă  l'internaute par diffĂ©rents filtres ; et l'Ă©tat d'« isolement intellectuel Â» et culturel dans lequel il se retrouve quand les informations qu'il recherche sur Internet rĂ©sultent d'une personnalisation mise en place Ă  son insu. Selon cette thĂ©orie, des algorithmes sĂ©lectionnent « discrĂštement » les contenus visibles par chaque internaute, en s'appuyant sur diffĂ©rentes donnĂ©es collectĂ©es sur lui. Chaque internaute accĂ©derait Ă  une version significativement diffĂ©rente du web. Il serait installĂ© dans une « bulle » unique, optimisĂ©e pour sa personnalitĂ© supposĂ©e. Cette bulle serait in fine construite Ă  la fois par les algorithmes et par les choix de l'internaute (« amis » sur les rĂ©seaux sociaux, sources d'informations, etc.).

Eli Pariser a théorisé le concept de la bulle de filtres.

Eli Pariser estime que ce phĂ©nomĂšne est devenu commun sur les rĂ©seaux sociaux et via les moteurs de recherche. Des sites tels que Google[2], Facebook[3], Twitter ou Yahoo! n'affichent pas toutes les informations, mais seulement celles sĂ©lectionnĂ©es pour l'utilisateur, et de maniĂšre hiĂ©rarchisĂ©e selon ses prĂ©dispositions supposĂ©es (y compris idĂ©ologiques et politiques)[4]. À partir de diffĂ©rentes donnĂ©es (historique, clics, interactions sociales), ces sites prĂ©disent ce qui sera le plus pertinent pour lui. Ils lui fournissent ensuite l'information la plus pertinente (y compris du point de vue commercial et publicitaire), en omettant celle qui l'est moins selon eux. Si les algorithmes considĂšrent qu'une information n'est pas pertinente pour un internaute, elle ne lui sera simplement pas prĂ©sentĂ©e.

Médiatisé depuis les années 2010, le concept de bulle de filtres a été critiqué pour l'importance qu'il accorde aux algorithmes et aux mesures techniques de personnalisation[5]. Une étude nuance par exemple l'impact de l'éclatement des bulles de filtre sur notre capacité à nous remettre en question[6] et rappelle l'influence encore majeure de la télévision[7].

Enjeux

Grùce à l'Internet, l'information potentiellement disponible ne cesse de croßtre : elle est en théorie de plus en plus accessible, ce qui permettrait à un internaute proactif de découvrir de nombreux points de vue différents du sien[8]. Mais paradoxalement, selon Bakshy et al. (2015) et d'autres auteurs[9] - [10] - [11], l'accÚs réel à l'information de presse, aux opinions et à l'information est de plus en plus filtré par des algorithmes de moteurs de recherche, et/ou via les réseaux sociaux[12].

Des chercheurs ont montré qu'au sein de Facebook, le filtrage algorithmique puis le filtrage par les pairs limite le libre-arbitre de l'internaute en ne lui présentant pas une large part de l'information (et notamment en limitant son accÚs à des données ou interprétations qui seraient a priori plus difficiles à adopter pour lui[13] - [14]) et en ne présentant souvent qu'une partie des facettes d'une information. Les brÚves d'information partagées de pair à pair par des millions d'utilisateurs proviennent en effet trÚs majoritairement de sources alignées sur l'idéologie ou les préférences de l'internaute. Le lecteur rencontre 15 % de contenu transversal en moins dans ses fils d'actualité (à cause du classement algorithmique) et il cliquera 70 % moins facilement sur des informations venant de sources inhabituelles pour lui.

Comme dans une chambre d'écho, ce phénomÚne tendrait à s'auto-entretenir en reproduisant majoritairement les opinions, croyances et perspectives de l'utilisateur en formant un cercle vicieux.

Effets psychosociaux supposés

Un internaute d'une orientation politique donnée verrait plus de contenus favorables à cette orientation[4]. Il serait moins soumis à des points de vue contradictoires[15] car les algorithmes sélectionneraient pour lui les contenus les plus pertinents, ceux qui lui plaisent le plus. Par exemple, un internaute qui serait identifié comme « de gauche » par le site, se verrait alors proposer moins de contenus « de droite ».

Des requĂȘtes similaires peuvent alors donner des rĂ©sultats trĂšs diffĂ©rents. Supposons par exemple que deux personnes, une plutĂŽt Ă  droite politiquement et l'autre plutĂŽt Ă  gauche, recherchent le terme « BP ». Les utilisateurs « de droite » trouveront des informations sur les investissements dans la British Petroleum. Les utilisateurs « de gauche » obtiendront des informations sur la marĂ©e noire dans le golfe du Mexique[16]. Il en va de mĂȘme pour la prĂ©sentation des informations relatives Ă  une guerre, par exemple la guerre d'Irak[17] ou plus rĂ©cemment les informations donnĂ©es aux partisans de Donald Trump aux États-Unis[18].

La bulle de filtres peut influencer les relations sociales et les réseaux sociaux et inversement. Dans certains réseaux sociaux, la personnalisation algorithmique masquerait les messages les moins pertinents, ceux qui seraient les moins cliqués par l'utilisateur. Moins on interagit avec un « ami » Facebook, moins les messages qu'il publie nous seront visibles, moins l'on sera susceptibles d'interagir avec lui. Pariser met en avant la « disparition » des messages de ses amis conservateurs de son flux d'activité Facebook. Alors qu'il avait ajouté des « amis » conservateurs pour lire leur opinion, la personnalisation ne lui suggérait plus les publications venant de ces personnes. Selon l'algorithme, cela n'était pas pertinent pour Pariser : il n'était pas censé cliquer ou lire ces opinions.

La bulle de filtre réduirait donc le champ informationnel de l'internaute ; Selon A Saemmer (2017), de nombreux étudiants disent consulter la presse en ligne exclusivement ou principalement en suivant des liens postés par leurs amis sur les réseaux sociaux, c'est-à-dire sans consulter la « une » ou le sommaire des journaux[19].

Selon Messing (2012), dans un rĂ©seau social, des appuis sociaux plus forts peuvent conduire Ă  un buzz qui augmente la probabilitĂ© qu'un internaute choisisse de lire un contenu qui sans cela ne lui aurait pas Ă©tĂ© prĂ©sentĂ©, ce qui pourrait dans une certaine mesure contrebalancer son exposition sĂ©lective initiale[11]. NĂ©anmoins, en 2016 dans un long article, longuement commentĂ© depuis, Katharine Viner, rĂ©dactrice en chef du journal The Guardian, estime que le numĂ©rique a considĂ©rablement Ă©branlĂ© notre rapport aux faits et que les rĂ©seaux sociaux, en particulier, sont grandement responsables de la victoire des partisans (populistes) du rĂ©fĂ©rendum sur l'appartenance du Royaume-Uni Ă  l'Union europĂ©enne, bien qu'ils aient eux-mĂȘmes reconnu que leurs arguments Ă©taient mensongers. Viner affirme que si les rĂ©seaux sociaux colportent volontiers des rumeurs et des « mensonges avĂ©rĂ©s », cela tient aux bulles de filtres qui, en fonction des pages consultĂ©es, renvoient les utilisateurs Ă  ce qu'ils ont l'habitude de consulter et qui, par consĂ©quent tendent Ă  les conforter dans leurs opinions au lieu de stimuler leur esprit critique[20].

RĂ©seaux sociaux

Le succĂšs du Web social et la surcharge d’information que ce succĂšs engendre ont rapidement provoquĂ© le besoin de trier l’information, et de dĂ©velopper les capacitĂ©s de filtrage des plateformes interactionnelles. Les moteurs de recherche comme Google ou les rĂ©seaux sociaux comme Facebook ou Twitter sont programmĂ©s pour mettre en avant de l’information dite « pertinente », autrement dit, susceptible d’intĂ©resser l’utilisateur et d’écarter l’information jugĂ©e moins pertinente. La popularitĂ© des rĂ©seaux sociaux rĂ©side dans cette capacitĂ© Ă  prĂ©senter efficacement et rapidement du contenu intĂ©ressant pour l’utilisateur[21]. Le filtrage fonctionne grĂące Ă  la mise en place d’un algorithme. L’informaticien GĂ©rard Berry parle « d’une façon de dĂ©crire dans ses moindres dĂ©tails comment procĂ©der pour faire quelque chose »[22]. Sur internet, les algorithmes instaurent une hiĂ©rarchie dans l’apparition des contenus sur l’interface des utilisateurs. Ils influencent chacun Ă  leur maniĂšre l’accĂšs Ă  l’information et fournissent une expĂ©rience particuliĂšre et personnalisĂ©e pour chaque utilisateur. Par exemple, sur les rĂ©seaux sociaux, ce sont les « likes » ou les « retweets » qui provoquent la mise en Ă©vidence de certains contenus par rapport Ă  d’autres, jugĂ©s alors moins pertinents[23].

Twitter

Depuis 2016, le rĂ©seau social Twitter s’est vu introduire un nouveau fil algorithmique. Les utilisateurs qui voyaient auparavant les tweets (les publications faites sur le rĂ©seau) apparaĂźtre selon un ordre antichronologique verront Ă  la place ces publications selon un ordre de prĂ©fĂ©rence dĂ©fini par l’algorithme[24]. L’algorithme opĂšre sa sĂ©lection de Tweets selon plusieurs critĂšres parmi lesquels peuvent ĂȘtre mentionnĂ©s : le nombre de retweet (le nombre de fois que le tweet est publiĂ© Ă  nouveau sur le rĂ©seau), si l’utilisateur est en forte interaction avec la personne qui tweet ou si cette derniĂšre fait partie de ses favoris. L’algorithme Ă©value ainsi la pertinence d’un tweet et affichera en haut de flux ceux qui sont le plus susceptibles d’intĂ©resser l’internaute. La suite des tweets, elle, apparaĂźtra comme avant, selon un ordre antichronologique[25]. ConcrĂštement, la rĂ©organisation chronologique du rĂ©seau est marquĂ©e par l’introduction de deux nouvelles rubriques. D’abord, le « Timeline classĂ© » ou « chronologie classĂ©e » qui fait apparaĂźtre les tweets pertinents en haut du flux aprĂšs une Ă  deux heures de non-utilisation du rĂ©seau. Et la rubrique « Vous pourriez aimer » qui remplace l’ancienne « En votre absence », qui se prĂ©sente comme une fonction complĂ©mentaire et qui recense des tweets moins rĂ©cents puisqu’elle n’apparaĂźt que plusieurs jours aprĂšs la derniĂšre connexion. L’apport de ce nouvel algorithme Ă  Twitter est multiple selon la firme. L’introduction d’un algorithme permet Ă  Twitter de mieux connaĂźtre ses utilisateurs et la maniĂšre dont ils interagissent sur le rĂ©seau. Ensuite, il permet d’adapter le contenu en fonction de l’utilisateur et d’ainsi augmenter le dynamisme, l’engagement et l’attention sur la plateforme. Enfin, le systĂšme est suffisamment complexe pour offrir Ă  chacun des utilisateurs de Twitter une expĂ©rience personnalisĂ©e sans que ceux-ci se retrouvent toujours face aux mĂȘmes tweets quand ils se connectent[26].

Facebook

Le rĂ©seau social compte plus d’un milliard d’utilisateurs dans le monde. C’est pourquoi il est impossible pour le site web crĂ©Ă© par Mark Zuckerberg en 2004, de montrer tout ce que « nos amis » postent sur la toile : Facebook doit sĂ©lectionner les informations. C’est grĂące Ă  un algorithme qui se nomme EdgeRank conçu en 2006[27] et abandonnĂ© au profit de Newsfeed Ranking Algorithm[28] en 2011 que le rĂ©seau social trie ses informations Ă  l’aide de 100 000 paramĂštres.

Parmi ces paramĂštres, il y en a quatre qui sont les plus connus[29] :

  • le CrĂ©ateur : l’intĂ©rĂȘt que suscite celui qui a publiĂ© le contenu ;
  • le Post : l’engagement que le post a engendrĂ© ;
  • le Type : le format que l’utilisateur du rĂ©seau social prĂ©fĂšre (vidĂ©os, images, statuts
) ;
  • la RĂ©cence : en fonction de la derniĂšre date de connexion de l’utilisateur, on peut juger la fraĂźcheur du contenu publiĂ©.

L’objectif pour Facebook est de montrer Ă  chaque utilisateur ce qui va l’intĂ©resser le plus. Et ce qu’il aimera, commentera ou partagera plus facilement. Le but est de crĂ©er le plus de rĂ©actions du cĂŽtĂ© des consommateurs du rĂ©seau social. Facebook sĂ©lectionne donc des contenus qui seront susceptibles d’ĂȘtre intĂ©ressants pour les internautes. L’algorithme va procĂ©der Ă  l’aide de diffĂ©rentes Ă©tapes qui vont attribuer un score de pertinence Ă  chaque publication et donc dĂ©terminer si celle-ci sera publiĂ©e ou non sur Facebook. Tout d’abord une sĂ©rie de questions est posĂ©e comme : Quelles histoires ont Ă©tĂ© publiĂ©es par les amis ? Qui a postĂ© ces histoires ? Comment on se comporte pour rĂ©agir Ă  ce contenu ? Ainsi que l’intĂ©rĂȘt portĂ© Ă  cette publication. Toutes ces interrogations vont ensuite ĂȘtre calquĂ©es sur chaque post prĂ©sent sur le rĂ©seau social. Les posts publiĂ©s par les consommateurs du site web vont ensuite ĂȘtre analysĂ©s pour leur donner une importance. Comme par exemple : les commentaires et les tags des amis, quand est-ce que le post a Ă©tĂ© publiĂ©, les retours nĂ©gatifs donnĂ©s Ă  l’auteur, la frĂ©quence Ă  laquelle les posts sont publiĂ©s


AprĂšs, l’algorithme va faire plusieurs prĂ©dictions :

  • est-ce que l’utilisateur va commenter / partager le post publiĂ© ;
  • combien de temps va-t-il passer Ă  l’analyser, le lire ;
  • est-ce qu’il va donner une valeur Ă  ce post ?

Tous ces critĂšres sont analysĂ©s avec le fait qu’il y ait un clickbait (signifie littĂ©ralement « appĂąt Ă  clics »)[30], de la nuditĂ© ou non sur la publication[28]. Ces deux facteurs peuvent toucher nĂ©gativement le post. Chaque post reçoit une note en fonction des diffĂ©rents facteurs avec lesquels il a Ă©tĂ© analysĂ©. Ce score est attribuĂ© de façon personnelle Ă  chaque personne et est donc en lien avec notre profil, nos relations et nos habitudes sur le rĂ©seau social.

Instagram

Depuis son rachat par Facebook en 2012, les principes de l’algorithme d’Instagram sont calquĂ©s sur ceux de Facebook. La parution des publications dans le flux se fait dĂ©sormais sur base de 3 critĂšres et non par ordre antĂ©-chronologique[31].

  • La popularitĂ© des publications selon le temps de la visualisation d’une vidĂ©o, celui d’une dĂ©livrance d’un score suivant la consultation d’un profil ou encore l’engagement.
  • Le site fait une estimation, suivant la catĂ©gorie de celle-ci, si l’heure de publication est favorable ou non.
  • Les interactions, la dĂ©termination de l’importance de comptes et de sujets s’établit suivant le nombre de mention « j’aime » et de commentaires de l’utilisateur d’Instagram (internaute).

La popularitĂ© des publications et l’engagement sont les critĂšres les plus importants. Cet algorithme a Ă©tĂ© mis en place afin que les internautes interagissent sur le rĂ©seau. Les stories (publications Ă©phĂ©mĂšres[32]) sont une fonctionnalitĂ© basĂ©e sur le principe du rĂ©seau social Snapchat. Mais contrairement Ă  celui-ci, les stories d’Instagram sont classĂ©es par l’algorithme qui emploie les donnĂ©es de Facebook. L’algorithme d’Instagram rĂ©amĂ©nage l’ordre d’apparition des publications, car il semblerait que les internautes ne verraient que 30 % de leur fil d’actualitĂ© et passeraient Ă  cĂŽtĂ© de 70 %. C’est pour cela que l’algorithme fait remonter les publications qui pourraient potentiellement intĂ©resser l’internaute et ainsi ne plus suivre la chronologie des publications[33].

YouTube

YouTube se diffĂ©rencie des autres rĂ©seaux sociaux en Ă©tant un site d’hĂ©bergement de vidĂ©os. NĂ©anmoins, celui-ci parvient Ă  plonger les utilisateurs dans une bulle de filtre. Son algorithme sĂ©lectionne des contenus pour les internautes et il renforce ainsi leurs opinions. À la fin du visionnage d’une vidĂ©o sur la plateforme, l’algorithme propose Ă  l’internaute en recommandation de visionner d’autres contenus Ă©tant dĂ©crits comme similaires. Cette fonction maintient le visionneur dans une mĂȘme idĂ©e sans le confronter Ă  du contenu opposĂ©.

Quels sont les critÚres qui vont déterminer le contenu à visionner[34] ?

  • L’historique de l’utilisateur : l’algorithme va analyser les crĂ©ateurs et les sujets que regarde le plus souvent le visionneur afin de lui proposer un contenu similaire. On remarque que si un internaute regarde plusieurs vidĂ©os d’une mĂȘme chaĂźne, YouTube lui proposera ensuite principalement les capsules de ce crĂ©ateur.
  • Le comportement des autres utilisateurs : des personnes effectuant le mĂȘme type de recherche, visionnant un mĂȘme contenu ou Ă©tant situĂ©es dans la mĂȘme dĂ©mographie sont qualifiĂ©es « d’utilisateurs similaires ». De ce fait, leurs recherches influencent le contenu de l’utilisateur.
  • Le taux de clic : une vidĂ©o peut ĂȘtre proposĂ©e Ă  plusieurs reprises dans les recommandations et les suggestions. Si le visionneur ne clique pas dessus, elle ne lui sera plus suggĂ©rĂ©e.
  • La nouveautĂ© : les nouvelles capsules sorties par un crĂ©ateur avec lequel un visionneur est en interaction lui sont montrĂ©es.

Le site possĂšde une catĂ©gorie « tendances » oĂč diffĂ©rents types de vidĂ©os sont proposĂ©s. L’algorithme nous propose ces capsules car il estime que le contenu est de bonne qualitĂ©. Pour que le programme informatique puisse Ă©valuer la qualitĂ© d’une vidĂ©o, il analyse le temps moyen de visionnage (watchtime)[35] des utilisateurs. Plus une vidĂ©o est regardĂ©e longtemps, plus elle est susceptible de possĂ©der un bon contenu que dĂšs lors l’algorithme proposera aux visionneurs.

En 2020, une équipe de chercheurs du Centre Marc Bloch a publié une étude dans le journal PLoS ONE montrant que les vidéos avec un grand nombre de vues ont tendance à favoriser les bulles de filtres - c'est-à-dire le confinement de l'utilisateur à des vidéos similaires à celle qu'il est en train de visionner - alors que celles avec un faible nombre de vues offrent des suggestions plus diverses[36].

De maniĂšre gĂ©nĂ©rale, l’introduction d’algorithme sur les rĂ©seaux sociaux peut mener Ă  des risques. En effet, des universitaires comme le sociologue Dominique Cardon considĂšre que les algorithmes sur les rĂ©seaux sociaux tendent Ă  reproduire le rĂ©el et perpĂ©tuer les structures sociales existantes. Ainsi, ces rĂ©seaux sociaux poussent leurs utilisateurs Ă  consommer des contenus qu’ils consultent dĂ©jĂ  ce qui peut provoquer une sorte de cloisonnement des utilisateurs dans leur propre conformisme : ils ne verront que le contenu qui leur sera donnĂ© Ă  voir, ils risqueraient alors d’enfermer leurs membres dans une « bulle de filtre »[23].

Les bulles de filtres de YouTube conduisent certaines personnes à se persuader que la terre est plate (platosphÚre), dans la communauté des platistes[37].

Solutions et initiatives

Face Ă  cette situation, plusieurs solutions existent ou semblent envisageables. Chacun pourrait mieux faire valoir son « droit Ă  l'information Â» et volontairement sortir de sa bulle de filtres, en allant volontairement rencontrer des points de vue diffĂ©rents, voire opposĂ©s aux siens, et aussi par exemple cultiver un regard critique en Ă©tudiant des points de vue Ă©mis par des articles relus par des pairs, publiĂ©s aprĂšs le feu de l'actualitĂ©, via Google scholar par exemple.

La Cour europĂ©enne des droits de l'homme rappelait le 8 juillet 1976 que « Le principe gĂ©nĂ©ral de tout traitement juridique et Ă©thique de l'information doit se fonder sur une distinction claire entre opinion et information. La premiĂšre concerne l'expression de pensĂ©es, de croyances et de jugements de valeur, et la seconde a trait Ă  des donnĂ©es et Ă  des faits, faits qui peuvent faire l'objet d'une information «ou qui peuvent ĂȘtre d'une importance publique» »[38].

Le PDG de Facebook, Mark Zuckerberg, a minimisĂ© la portĂ©e de ce phĂ©nomĂšne sur la plateforme qu'il a cofondĂ©e[39], mais l'entreprise a tout de mĂȘme commencĂ© Ă  travailler sur des mesures pour en limiter l'impact[40].

Des sites spĂ©cialisĂ©s se sont Ă©galement montĂ©s, principalement aux États-Unis, permettant Ă  chacun de prendre conscience de ce phĂ©nomĂšne, comme allsides.com[41] - [42] ou hifromtheotherside.com[43].

Certains moteurs de recherche non personnalisĂ©s font valoir que leur absence de tri idĂ©ologique des rĂ©sultats de recherche permettait de lutter contre les bulles de filtres. En effet, comme aucune donnĂ©e personnelle n'est collectĂ©e ou Ă©valuĂ©e, aucune bulle de filtre ne peut ĂȘtre crĂ©Ă©e. C'est par exemple le cas de Qwant ou Ecosia. Enfin, des extensions ont Ă©tĂ© dĂ©veloppĂ©es pour des navigateurs web Google Chrome ou Mozilla Firefox permettant de mettre en lumiĂšre les bulles de filtres, et contextualiser certaines informations.

En France, le journal Le Drenche propose pour tous les sujets deux avis diffĂ©rents et opposĂ©s, avec l'objectif affichĂ© de lutter contre les bulles de filtres[44] ; c'est une technique journalistique connue, qui sous couvert de neutralitĂ© tend cependant parfois Ă  privilĂ©gier, voire Ă  rechercher les extrĂȘmes au dĂ©triment des points de vue nuancĂ©s et/ou du pluralisme des opinions.

Critiques du concept

La mĂ©diatisation de la thĂ©orie de la bulle de filtres d'Eli Pariser se veut participer de l'esprit critique, mais d'autres lectures sont possibles. Pour AndrĂ© Gunthert dans Et si on arrĂȘtait avec les bulles de filtre ? (AndrĂ© Gunthert est maĂźtre de confĂ©rence Ă  l’École des hautes Ă©tudes en sciences sociales (EHESS), oĂč il occupe la chaire d'histoire visuelle), « le systĂšme de sĂ©lection de Facebook ne modifie que de 1 % l’exposition aux contenus politiques de camps opposĂ©s Â»[45] ; il donne la parole Ă  Dominique Cardon selon qui « la bulle, c’est nous qui la crĂ©ons. Par un mĂ©canisme typique de reproduction sociale. Le vrai filtre, c’est le choix de nos amis, plus que l’algorithme de Facebook. »

Notes et références

  1. « bulle de filtres », Grand Dictionnaire terminologique, Office québécois de la langue française (consulté le ).
  2. Les bulles de filtres mises en place par Google pour faciliter notre recherche présenteraient les informations en fonction « de 57 critÚres, parmi lesquels notre historique de recherche, notre localisation, le type d'ordinateur que nous utilisons, notre langue, etc. » Gérald Bronner, La Démocratie des Crédules, Presses universitaires de France, (lire en ligne), p. 59.
  3. Wormser G (2017). Building Global Community: La tentation hégémonique de Mark Zuckerberg et de Facebook. Sens Public.
  4. Stroud N (2008), Media use and political predispositions: Revisiting the concept of selective exposure. Polit. Behav. 30, 341–366 |Doi:10.1007/s11109-007-9050-9.
  5. (en) « The truth behind filter bubbles: Bursting some myths », sur Reuters Institute for the Study of Journalism (consulté le ).
  6. « Les “bulles de filtres” : est-ce vraiment la faute d'Internet ? », sur www.franceinter.fr (consultĂ© le ).
  7. Will Oremus, « Dans leur bulle (de filtres), les internautes? Pas si simple
 », sur Slate.fr, (consultĂ© le ).
  8. Bakshy E, I. Rosenn, C. Marlow, L. Adamic, Proc. 21st Int. Conf. World Wide Web Pages 1201.4145 (2012).
  9. W. L. Bennett, S. Iyengar (2008), A new era of minimal effects? The changing foundations of political communication. J. Commun. 58, 707–731. doi:10.1111/j.1460-2466.2008.00410.x .
  10. Pariser E (2011), The Filter Bubble: What the Internet Is Hiding from You (Penguin Press, London).
  11. S. Messing, S. J. Westwood (2012), Selective exposure in the age of social media : Endorsements trump partisan source affiliation when selecting news online. Communic. Res. 41, 1042–106.
  12. Eli Pariser, The Filter Bubble: What the Internet Is Hiding from You, Penguin Press (New York, mai 2011) (ISBN 978-1594203008).
  13. Bennett W.L & Iyengar S (2008), A new era of minimal effects? The changing foundations of political communication. J. Commun. 58, 707–731 | doi:10.1111/j.1460-2466.2008.00410.x.
  14. Sunstein C.R (2007), Republic.com 2.0 (Princeton Univ. Press, Princeton, NJ).
  15. (en) USA Today, 29 avril 2011, The Filter Bubble by Eli Pariser. « Pariser explique que nous fournir uniquement ce qui nous est familier et confortable nous ferme aux nouvelles idĂ©es, aux nouveaux sujets et Ă  des informations importantes. » — ConsultĂ© le 31 janvier 2012.
  16. (en) Interview d'Eli Pariser par Lynn Parramore, The Atlantic, 10 octobre 2010 « Depuis le 4 dĂ©cembre 2009, Google a Ă©tĂ© personnalisĂ© pour chacun. Quand ce printemps deux de mes amis ont tapĂ© « BP » sur Google, l'un a obtenu un ensemble de liens portant sur les possibilitĂ©s d'investissement dans BP. L'autre a obtenu des informations sur la marĂ©e noire. » – ConsultĂ© le 31 janvier 2012.
  17. S. Kull, C. Ramsay, E. Lewis (2003) , Misperceptions, the media, and the Iraq War. Polit. Sci. Q. 118, 569–598. doi:10.1002/j.1538-165X.2003.tb00406.x.
  18. S. Messing, S. J. Westwood(2012), Selective exposure in the age of social media: Endorsements trump partisan source affiliation when selecting news online. Communic. Res. 41, 1042–1063 .
  19. Saemmer A (2017) InterprĂ©ter l’hyperlien en contexte pĂ©dagogique: Ă©lĂ©ments d’une sĂ©miotique sociale. Le français aujourd'hui, (1), 25-34.
  20. How technology disrupted the truth, Katharine Viner, The Guardian, 12 juillet 2016
    Traduction en français : Comment le numérique a ébranlé notre rapport à la vérité, Le Courrier international, 9 septembre 2016.
  21. Bernhard Rieder, « De la communautĂ© Ă  l’écume : quels concepts de sociabilitĂ© pour le « web social » ? », tic&sociĂ©tĂ©, no Vol. 4, n° 1,‎ (DOI 10.4000/ticetsociete.822, lire en ligne, consultĂ© le ).
  22. « Qu’est ce qu’un algorithme ? », Iakaa Blog,‎ (lire en ligne, consultĂ© le ).
  23. « La sociĂ©tĂ© des calculs sous la loupe de la sociologie - A quoi rĂȘvent les algorithmes - Dominique Cardon [lecture] », sur maisouvaleweb.fr (consultĂ© le ).
  24. « L'algorithme de Twitter vous est enfin dĂ©voilĂ© ! », Les digitaux - TEM Marketing Digital,‎ (lire en ligne, consultĂ© le ).
  25. « Comment fonctionne l'algorithme Twitter ? - Blog du ModĂ©rateur », Blog du ModĂ©rateur,‎ (lire en ligne, consultĂ© le ).
  26. Will Oremus et Antoine Bourguilleau, « Voici comment fonctionne l'algorithme de Twitter », Slate, (consulté le ).
  27. « Comment fonctionne l’algorithme de Facebook ? », sur www.actance.net (consultĂ© le ).
  28. « Comment fonctionne l'algorithme Facebook ? - Blog du ModĂ©rateur », Blog du ModĂ©rateur,‎ (lire en ligne, consultĂ© le ).
  29. Martin Untersinger, « Comment fonctionne l'algorithme de Facebook ? », Le Monde,‎ (ISSN 1950-6244, lire en ligne, consultĂ© le ).
  30. « Clickbait », sur definitions-marketing.com (consulté le ).
  31. « Comment fonctionne l’algorithme d’Instagram ? », sur www.actance.net (consultĂ© le ).
  32. « Tout ce qu’il faut savoir sur les Stories d’Instagram », Presse-Citron,‎ (lire en ligne, consultĂ© le ).
  33. « L'algorithme d'Instagram : comment en tirer parti ? », French,‎ (lire en ligne, consultĂ© le ).
  34. « Comment fonctionne l'algorithme YouTube ? ‱ GOJI », sur GOJI (consultĂ© le ).
  35. « YouTube : les 2 principaux changements d'algo fin 2016 », WebRankInfo,‎ (lire en ligne, consultĂ© le ).
  36. (en) Camille Roth, Antoine MaziĂšres et Telmo Menezes, « Tubes and Bubbles--Topological confinement of YouTube recommendations », PLOS ONE, vol. 15, no 4,‎ , e0231703 (ISSN 1932-6203, PMID 32315329, PMCID PMC7173795, DOI 10.1371/journal.pone.0231703, lire en ligne, consultĂ© le ).
  37. Fabien Goubet, « YouTube, cette fabrique de «platistes» », Le Temps,‎ (lire en ligne, consultĂ© le ).
  38. in Rapport sur l'éthique du journalisme ; Projet de recommandation adopté à l'unanimité par la commission le 8 juin 1993 ; commission de la culture et de l'éducation ; parlement européen.
  39. « Facebook, faiseur de rois de l’élection amĂ©ricaine ? », Le Monde.fr,‎ (lire en ligne, consultĂ© le ).
  40. (en) Facebook Is Testing This New Feature to Fight ‘Filter Bubbles’.
  41. (en) « Allsides », sur allsides.com.
  42. (en) Jacqueline Conciatore Senter, Navigating Filter Bubbles, Cavendish Square Publishing, LLC, , 64 p. (ISBN 978-1-5026-4131-1, lire en ligne), p. 37.
  43. (en-US) « Hi From the Other Side ».
  44. « Le concept », Le Drenche / Ouest-France, (consulté le ).
  45. AndrĂ© Gunthert (2016) Et si on arrĂȘtait avec les bulles de filtre?, 13 novembre.

Voir aussi

Bibliographie

  • Boyadjian, J., Olivesi, A., & Velcin, J. (2017). Le web politique au prisme de la science des donnĂ©es. RĂ©seaux, (4), 9-31.

Bibliographie soutenant la théorie d'Eli Pariser

Bibliographie critique

Articles connexes

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.