Bańka filtrująca

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacja, szukaj

Bańka filtrująca (ang. filter bubble) – sytuacja powstała w wyniku działania określonego algorytmu, gdzie osoba korzystająca z sieci otrzymała informacje wyselekcjonowane, które dobrane zostały na podstawie informacji dostępnych na temat użytkownika, np. lokalizacja lub historia wyszukiwania[1]. Powoduje to, że użytkownik zamknięty jest w samonapędzającym się cyklu opinii, a szukający nie zostaje nigdy skierowany na odmienne tematy lub punkty widzenia[2].

Przykładem tego zjawiska są wyniki spersonalizowanych wyszukiwań w Google’u i informacyjnych strumieni w Facebooku[3]. Termin został ukuty przez internetowego aktywistę Eliego Parisera w książce The Filter Bubble: What the Internet Is Hiding from You (2011)[4]. Według Parisera użytkownicy mają mniejszy kontakt z konfliktogennym punktem widzenia, a także, będąc we własnych bańkach informacyjnych, są intelektualnie odizolowani[5]. Pariser wskazał przykład, w którym jeden z użytkowników szukając w Google’u frazy „BP” otrzymał wiadomości inwestycyjne nt. przedsiębiorstwa British Petroleum, natomiast inny szukający dostał informacje nt. eksplozji platformy wiertniczej Deepwater Horizon; autor podkreślił, że te dwa wyniki wyszukiwania były „uderzająco różne” (strikingly different)[6][7][8]. W opinii Parisera efekt bańki może mieć negatywne konsekwencje w publicznym dyskursie, ale pojawiły się także kontrastujące opinie sugerujące, że efekt jest minimalny[9].

Założenia[edytuj]

Pariser (2012)

Pariser zdefiniował własną koncepcję bańki filtrującej, w bardziej formalny sposób, jako „indywidualny ekosystem informacji, który został przygotowany przez te algorytmy”[6]. Także innych terminów używano do opisania tego zjawiska, są to m.in. „ramki ideologiczne” (ideological frames)[7] lub „otaczająca was, podczas przeszukiwania Internetu, przenośna sfera”[10]. Dotychczasowa historia wyszukiwania jest z biegiem czasu gromadzona, kiedy użytkownik Internetu sygnalizuje zainteresowanie konkretnymi tematami poprzez „klikanie linków, przeglądanie znajomych, umieszczanie filmów w swojej kolejce i czytanie wiadomości”[10]. Firma internetowa używa wówczas tych informacji do dostarczenia użytkownikowi odpowiednich reklam lub by znalazły się one w bardziej widocznym miejscu na stronie z wynikami wyszukiwania[10]. Obawy Parisera są podobne do tych przedstawionych wcześniej przez brytyjskiego fizyka i programistę Tima Bernersa-Lee, którego raport w 2010 roku opublikowano w dzienniku „The Guardian”. Napisał on, że zgodnie z zasadą efektu opisanego w piosence „Hotel California”, który ma miejsce, strony serwisów społecznościowych odgradzają zawartość od innych konkurencyjnych stron (przez co zagarniana jest większa część wszystkich użytkowników Internetu), co skutkuje tym, że „im więcej klikasz, tym bardziej jesteś zamknięty” na informacje w obrębie konkretnej strony internetowej. Według Bernersa-Lee staje się to „zamkniętym silosem treści” z możliwym podziałem World Wide Web[11].

Pariser (2012)

W publikacji The Filter Bubble Pariser ostrzega, że potencjalnym minusem filtrowanego szukania jest to, iż to „zamyka nas na nowe pomysły, tematy i ważne informacje”[12], a także „tworzy wrażenie, że wszystko, co istnieje, to wyłącznie nasza własna korzyść”[7]. W jego opinii takie zjawisko jest potencjalnie szkodliwe zarówno dla jednostek, jak i społeczeństwa. Skrytykował on koncern Google i Facebooka za oferowanie użytkownikom „zbyt dużo słodyczy, a za mało marchewek”[13]. Autor ostrzegł również, że „niewidoczne algorytmiczne edytowanie sieci” może wszystkim korzystającym z Internetu ograniczać kontakt z nowymi informacjami oraz zawęzić im horyzont[13]. Według Parisera niekorzystnym efektem filtrujących baniek jest także szkodzenie ogółowi społeczeństwa w tym sensie, że mogą one spowodować „osłabienie obywatelskiego dyskursu” (undermining civic discourse), a także możliwe jest, iż ludzie mogą stać się bardziej podatni na „propagandę i manipulacje”[7]. Autor w swojej książce napisał:

Świat skonstruowany z ducha jest światem, w którym nie ma się czego uczyć… (od momentu kiedy występuje) niewidoczna autopropaganda, indoktrynująca nas naszymi własnymi ideami[14].

— Eli Pariser

Bańka filtrująca została opisana jako nasilający się fenomen, który został nazwany splinternetem (inne nazwy: bałkanizacja Internetu, cyberbałkanizacja[15][a]), co dzieje się, kiedy Internet zostaje podzielony na podgrupy ludzi podobnie myślących, którzy zostają izolowani w ich własnych wirtualnych społecznościach i pozbawieni są możliwości kontaktu z innymi poglądami; termin „cyberbałkanizacja” został ukuty w 1996 roku[16][17][18].

Reakcje[edytuj]

Istnieją sprzeczne informacje na temat skali zjawiska filtrowania spersonalizowanego i czy jego aktywność jest korzystna, czy szkodliwa. Analityk Jacob Weisberg, pisząc dla internetowego czasopisma „Slate”, zrealizował niewielki eksperyment nienaukowy mający na celu przetestowanie teorii Parisera. W badaniu wzięło udział pięciu jego współpracowników mających różne zaplecze ideologiczne, którym nakazał wyszukiwać w ten sam sposób. Rezultaty wszystkich pięciu zapytań wyszukiwania okazały się niemal identyczne u czterech różnych szukających. Sugerował on, że „bańka filtrująca” nie ma zastosowania, co spowodowało, że postanowił on napisać, iż sytuacja, w której wszyscy ludzie są „karmieni w korycie «Daily Me»” (feeding at the trough of a Daily Me), była przesadzona[7]. Badanie naukowe przeprowadzone w Wharton School, które analizowało rozwiązania spersonalizowane, również potwierdziło, że w przypadku internetowego gustu muzycznego filtry te właściwie mogą tworzyć wspólność, a nie podział[19]. Konsumenci w rzeczywistości używają filtra, by rozszerzyć swój gust, a nie po to, by go ograniczać[19]. Recenzent książek Paul Boutin przeprowadził podobny eksperyment wśród ludzi mających różniące się historie szukania. Wyniki tego badania były zbliżone do tych zrobionych przez Weisberga, które pokazały niemal identyczne rezultaty wyszukiwań[9]. Jonathan Zittrain, profesor prawa na Uniwersytecie Harvarda, zakwestionował stopień, do którego filtry personalizujące zniekształcają wyniki wyszukiwań w Google’u; powiedział on, że „efekty personalizacji wyszukiwania były łagodne”[7]. Ponadto pojawiły się doniesienia, że użytkownicy mają możliwość wyłączenia ustawień personalizujących w wyszukiwarce Google[20] poprzez usunięcie historii online lub też innymi metodami[9]. Rzecznik Google’a zasugerował, że algorytmy zostały celowo dodane do ich wyszukiwarek po to, by „ograniczały personalizację i promowały różnorodność”[7].

Pomimo to istnieją informacje, że Google oraz inne strony są w posiadaniu dużych ilości danych, które mogą umożliwić im dalsze personalizowanie doświadczeń użytkownika w Internecie, jeśli tylko zechcą tak zrobić. Jeden z opisów sugerował, że Google jest w stanie śledzić dotychczasową historię użytkownika, nawet jeśli nie posiada on prywatnego konta w Google’u lub nie jest tam zalogowany[9]. Inny opis mówił, że Google zebrał informacje „warte 10 lat” (10 years worth) zgromadzone z różnych źródeł, takich jak Gmail, Mapy Google, a także innych serwisów, pomijając ich wyszukiwarkę[8]. Przy takiej personalizacji Internetu dla każdego użytkownika oprócz potrzeby udostępnienia w sieci rozległej przestrzeni dyskowej (przeznaczonej na gromadzenie danych) proces taki byłby też dla przedsiębiorstwa internetowego wymagający technicznie. Analityk Doug Gross z amerykańskiej telewizji CNN zasugerował, że filtrowane wyszukiwanie wydaje się być bardziej pomocne dla konsumenta niż dla obywatela i ułatwiłoby szukającemu „pizzy” konsumentowi znalezienie lokalnego dostawcy w oparciu o spersonalizowane szukanie i odpowiednie odfiltrowanie odległych pizzerii[8]. Strony internetowe, np. dzienników „The Washington Post” czy „The New York Times” starają się stworzyć mechanizmy z informacjami spersonalizowanymi, mające na celu dostosowanie rezultatów wyszukiwania do takich, które są akceptowalne przez użytkownika, lub takich, z którymi będzie się on zgadzać[7].

Zobacz też[edytuj]

Uwagi

  1. Termin cyberbałkanizacja, gdzie „cyber” oznacza Internet, a „bałkanizacja” odnosi się do regionu w Europie, który został podzielony według języków, religii i kultur, został ukuty na papierze przez naukowców politechniki MIT – Vana Alstyne’a i Brynjolfssona.
  2. Wyszukiwarka, której właściciele zapewniają, że nie korzysta ona z bańki filtrującej.

Przypisy

  1. Jak jesteśmy profilowani w sieci? | Cyfrowa Wyprawka. cyfrowa-wyprawka.org. [dostęp 2016-05-02]. [zarchiwizowane z tego adresu (5 marca 2016)].
  2. Yuan Cao Zhang, Diarmuid Ó Séaghdha, Daniele Quercia, Tamas Jambor. Auralist: Introducing Serendipity into Music Recommendation. „ACM WSDM”, luty 2012 (ang.). [zarchiwizowane z adresu 18 listopada 2015]. 
  3. John Bohannon: Is Facebook keeping you in a political bubble? | Science | AAAS (ang.). sciencemag.org, 7 maja 2015. [dostęp 2016-05-02]. [zarchiwizowane z tego adresu (24 marca 2016)].
  4. Aaron J. Barlow, Robert Leston: Beyond the Blogosphere: Information and Its Children. ABC-CLIO, 2012, s. 233. ISBN 9780313392870. [dostęp 3 maja 2016].
  5. Pietro Michelucci: Handbook of Human Computation. Springer Science & Business Media, 2013, s. 870. ISBN 9781461488064. [dostęp 3 maja 2016].
  6. a b The Filter Bubble (ang.). 10 października 2010. [zarchiwizowane z tego adresu (27 kwietnia 2016)].  Cytat: Since Dec. 4, 2009, Google has been personalized for everyone. So when I had two friends this spring Google "BP," one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill…
  7. a b c d e f g h Jacob Weisberg: Bubble Trouble: Is Web personalization turning us into solipsistic twits? (ang.). 10 czerwca 2011. [zarchiwizowane z tego adresu (12 czerwca 2011)].
  8. a b c Doug Gross: What the Internet is hiding from you (ang.). cnn.com, 19 maja 2011. [zarchiwizowane z tego adresu (9 kwietnia 2016)].  Cytat: I had friends Google BP when the oil spill was happening. These are two women who were quite similar in a lot of ways. One got a lot of results about the environmental consequences of what was happening and the spill. The other one just got investment information and nothing about the spill at all.
  9. a b c d Paul Boutin: Your Results May Vary: Will the information superhighway turn into a cul-de-sac because of automated filters? (ang.). 20 maja 2011. [zarchiwizowane z tego adresu (14 grudnia 2015)].  Cytat: By tracking individual Web browsers with cookies, Google has been able to personalize results even for users who don’t create a personal Google account or are not logged into one…
  10. a b c Shira Lazar: Algorithms and the Filter Bubble Ruining Your Online Experience? (ang.). 1 czerwca 2011. [zarchiwizowane z tego adresu (13 kwietnia 2016)].  Cytat: a filter bubble is the figurative sphere surrounding you as you search the Internet.
  11. Bianca Bosker: Tim Berners-Lee: Facebook Threatens Web, Beware (ang.). 22 listopada 2010. [zarchiwizowane z tego adresu (16 marca 2016)].  Cytat: Social networking sites are threatening the Web’s core principles … Berners-Lee argued. "Each site is a silo, walled off from the others," he explained. "The more you enter, the more you become locked in…".
  12. First Monday: What’s on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser (ang.). 2011. [zarchiwizowane z tego adresu (9 listopada 2015)].  Cytat: Pariser explains that feeding us only what is familiar and comfortable to us closes us off to new ideas, subjects and important information.
  13. a b Bianca Bosker: Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns (ang.). 7 marca 2011. [dostęp 20 kwietnia 2011]. [zarchiwizowane z tego adresu (9 grudnia 2012)].  Cytat: When it comes to content, Google and Facebook are offering us too much candy, and not enough carrots.
  14. Invisible sieve: Hidden, specially for you (ang.). The Economist, 30 czerwca 2011. [zarchiwizowane z tego adresu (12 maja 2016)].  Cytat: Mr Pariser’s book provides a survey of the internet’s evolution towards personalisation, examines how presenting information alters the way in which it is perceived and concludes with prescriptions for bursting the filter bubble that surrounds each user.
  15. Matthew Hindman: The Myth of Digital Democracy. Princeton University Press, 2008, s. 265. ISBN 9780691138688. [dostęp 3 maja 2016].
  16. Marshall Van Alstyne, Erik Brynjolfsson: Electronic Communities: Global Village or Cyberbalkans?. Cambridge: marzec 1997, s. 3. [dostęp 3 maja 2016].
  17. Marshall Van Alstyne, Erik Brynjolfsson. Could the Internet Balkanize Science?. „Science”. 274 (5292), listopad 1996. DOI: 10.1126/science.274.5292.1479 (ang.). 
  18. Alex Pham, Jon Healey: Systems hope to tell you what you’d like: 'Preference engines' guide users through the flood of content (ang.). Chicago Tribune, 24 września 2005. [zarchiwizowane z tego adresu (25 kwietnia 2016)].  Cytat: …if recommenders were perfect, I can have the option of talking to only people who are just like me… Cyber-balkanization, as Brynjolfsson coined the scenario, is not an inevitable effect of recommendation tools…
  19. a b Kartik Hosanagar, Daniel Fleder, Dokyun Lee, Andreas Buja. Will the Global Village Fracture into Tribes: Recommender Systems and their Effects on Consumers. „Management Science, Forthcoming”, grudzień 2013 (ang.). [zarchiwizowane z adresu 26 kwietnia 2016]. 
  20. Amber Ludwig: Google Personalization on Your Search Results Plus How to Turn it Off (ang.). NGNG. [zarchiwizowane z tego adresu (26 stycznia 2013)].  Cytat: Google customizing search results is an automatic feature, but you can shut this feature off.