Manipulacja w internecie

Z Wikipedii, wolnej encyklopedii
Przejdź do nawigacji Przejdź do wyszukiwania

Manipulacja w Internecie odnosi się do kooptacji technologii cyfrowej, takich jak algorytmy mediów społecznościowych i zautomatyzowane skrypty, do celów komercyjnych, społecznych lub politycznych[1]. Taka taktyka może być stosowana z wyraźnym zamiarem manipulowania opinią publiczną, do polaryzowania obywateli[2], uciszania dysydentów politycznych, szkodzenia przeciwnikom korporacyjnym lub politycznym oraz poprawiania reputacji osobistej lub marki. Hakerzy, wynajęci specjaliści i prywatni obywatele dopuszczają się manipulacji w Internecie przy użyciu oprogramowania w tym zazwyczaj botów internetowych, takich jak boty społecznościowe, głosoboty i clickboty[3].

Hackowanie poznawcze odnosi się do cyberataku, którego celem jest zmiana percepcji użytkowników i modyfikacja ich zachowań[4][5][6].

Manipulacja Internetem jest czasami stosowana również do opisania selektywnej cenzury Internetu lub naruszenia neutralności sieci[7][8][9].

Zagadnienia[edytuj | edytuj kod]

  • Emocjonalny potencjał responsywności: Treści, które wywołują silne emocje (takie jak strach, złość lub lęk), są bardziej responsywne w dotarciu. Dotyczy to również emocji takich jak zaskoczenie, ciekawość lub użyteczność[10].
  • Prostota ponad kompleksowością: Dostarczanie prostych wyjaśnień złożonych okoliczności i następnie utrwalanie ich, może być wykorzystywane do manipulacji wirtualnej. Często są one łatwiejsze do zinternalizowania, są dostępne wcześniej niż inne badania i mają wyższą responsywność niż jakiekolwiek złożone, zniuansowane wyjaśnienia i informacje[11].
  • Wpływ znajomych: Kolektywna ocena jakości treści internetowych wpływa na postrzeganie treści przez odbiorców. W 2015 roku wykazano, że oceny dzieł sztuki ocenianych w środowisku wirtualnym mogą być łatwo manipulowane[12]. Społeczność platformy Reddit zauważyła, że materiał, który dostaje na początku okreslone głosy – aprobujące lub negujące – ma dużą szansę być odbieranym w taki sam sposób później. Użytkownicy i administratorzy nazwali to „głosowaniem śnieżnym”, co wpisywało by się w koncepcję bandwagoningu[13].
  • Balon informacyjny: Pogłosy społeczne czy bańka informacyjna mogą być używane przez administratorów lub moderatorów witryn internetowych na przykład poprzez blokowanie ludzi o innych punktach widzenia, przez ustalenie nowych zasad lub przez standaryzację punktu widzenia członków społeczności internetowych.
  • Stronniczość i manipulacja treści: Fałszywe wiadomości nie muszą być czytane, ale i tak mogą mieć wpływ na jakość, siłę i efekt emocjonalny odbiorcy. Konkretne propozycje, poglądy, problemy i pozornie naturalne rozpowszechnienie informacji mogą być przez to wzmocnione, stymulowane lub symulowane[14]. (Zobacz także: efekt czystej ekspozycji)
  • Aktualność i niepoprawność informacji: Reakcja na nieprawdziwą informacje – wyjaśnienia, demistyfikacja konspiracji i ujawnianie fałszywych wiadomości – często pojawiają się z opóźnieniem, gdy szkody są już wyrządzone i / lub nie docierają do większości odbiorców związanych z dezinformacją[15].
  • Psychologiczne targetowanie: działania w mediach społecznościowych i na innych wirtualnych danych, które można wykorzystać do analizy osobowości ludzi oraz przewidywania ich zachowania i preferencji[16][17]. Doktor Michał Kosiński opisał taką procedurę. Mogą to być media lub informacje dostosowane do psychiki osoby, np. Facebook. Według doniesień mogły one odegrać integralną rolę w zwycięstwie Donalda Trumpa. (Zobacz także: reklama targetowana)[16][18]

Algorytmy i polaryzacja[edytuj | edytuj kod]

Coraz większa ilość źródeł internetowych stanowi wektor prowadzący do wzrostu pluralizmu mediów, ale algorytmy używane przez platformy społecznościowe i wyszukiwarki w celu zapewnienia użytkownikom spersonalizowanego doświadczenia w oparciu o ich indywidualne preferencje, stanowią wyzwanie dla tegoż pluralizmu, ograniczając dostęp do różnych punktów widzenia i wiadomości. Jest to powszechnie określane jako pogłosy społeczne czy bańki informacyjne.

Algorytmy wpływają na wybory użytkowników i ich postrzeganie rzeczywistości, sprawiając wrażenie, że dany punkt widzenia lub reprezentacja jest szeroko rozpowszechniona. Po referendum w sprawie członkostwa w Unii Europejskiej w Wielkiej Brytanii w 2016 oraz wyborach prezydenckich w Stanach Zjednoczonych zwróciło to uwagę, ponieważ wiele osób przyznało się do zaskoczenia wynikami, które wydawały się bardzo odległe od ich oczekiwań. Na zakres pluralizmu wpływa spersonalizowana indywidualizacja usług i sposób w jaki ogranicza ona wybór[19].

Badania przeprowadzone przez Flaxmana, Goela i Rao[20], Parisera[21], i Grömpinga[22] sugerują, że korzystanie z mediów społecznościowych i wyszukiwarek powoduje tendencję do zwiększania dystansu ideologicznego między jednostkami.

Porównania między segregacją online i offline wykazały, że segregacja jest zwykle wyższa w kontaktach twarzą w twarz z sąsiadami, współpracownikami lub członkami rodziny[23]. Istniejące badania wykazują że dostępne dowody empiryczne nie potwierdzają najbardziej pesymistycznych poglądów na temat polaryzacji[24]. Na przykład badanie przeprowadzone przez naukowców z Facebooka i University of Michigan sugeruje, że własne wybory poszczególnych osób są napędzane przez algorytmy, ograniczające dostęp do szeregu treści[25]. Chociaż algorytmy mogą nie powodować polaryzacji, mogą ją wzmacniać, stanowiąc istotny składnik nowego krajobrazu informacyjnego[26].

Badania i wykorzystanie przez agencje wywiadowcze i wojskowe[edytuj | edytuj kod]

Niektóre z metod / technik używanych przez JTRIG ujawnione w wyniku wycieku danych.

Jednostka Joint Threat Research Intelligence Group w Government Communications Headquarters (GCHQ), brytyjska agencja wywiadowcza[27] została ujawniona w ramach ujawnień dotyczących globalnego nadzoru w dokumentach ujawnionych przez byłego wykonawcę Agencji Bezpieczeństwa Narodowego Edwarda Snowdena[28] i jego misji. zakres obejmuje stosowanie „brudnych sztuczek” do „niszczenia, zaprzeczania, degradowania [i] zakłócania” wrogów[28][29]. Podstawowe taktyki obejmują wstrzykiwanie fałszywych materiałów do Internetu w celu zniszczenia reputacji celów oraz manipulowanie dyskursem i aktywizmem w Internecie, do czego służą takie metody, jak publikowanie materiałów w Internecie i fałszywe przypisywanie ich komuś innemu, udawanie ofiary celu osoby, których reputacja ma zostać zniszczona i zamieszczające „negatywne informacje” na różnych forach mogą być wykorzystywane[29].

Działania JTRIG, znane jako „efekty”, stały się „główną częścią” działalności GCHQ do 2010[28]. Działania propagandowe jednostki w Internecie (o nazwie „Online Covert Action”) wykorzystują „masowe wysyłanie wiadomości” i „rozpowszechnianie [z] historii” za pośrednictwem Twittera, Flickr, Facebooka i YouTube[28]. Operacje online typu „fałszywa flaga” są również wykorzystywane przez JTRIG przeciwko celom[28]. JTRIG zmienił również zdjęcia w serwisach społecznościowych, a także wysyłał e-maile i SMS-y do kolegów i sąsiadów z „niesmacznymi informacjami” o docelowej osobie[28]. W czerwcu 2015 r. Pliki NSA opublikowane przez Glenna Greenwalda ujawniły nowe szczegóły dotyczące pracy JTRIG nad potajemnym manipulowaniem społecznościami internetowymi[30]. Ujawnienia ujawniły również technikę „zbierania danych uwierzytelniających”, w której dziennikarze mogą być wykorzystywani do rozpowszechniania informacji i identyfikowania dziennikarzy spoza Wielkiej Brytanii, którzy po zmanipulowaniu mogliby udzielić informacji zamierzonemu celowi tajnej kampanii, być może umożliwiając dostęp podczas wywiadu[28]. Nie wiadomo, czy dziennikarze mieliby świadomość, że są manipulowani[28].

Ponadto Rosja jest często oskarżana o finansowanie „trolli”, które publikują prorosyjskie opinie w Internecie[31]. Internet Research Agency stała się znana z zatrudniania setek Rosjan do publikowania propagandy w Internecie pod fałszywymi tożsamościami w celu stworzenia iluzji masowego poparcia[32]. W 2016 roku Rosja została oskarżona o wyrafinowane kampanie propagandowe mające na celu rozpowszechnianie fałszywych wiadomości w celu ukarania demokratycznej Hillary Clinton i pomocy republikaninowi Donaldowi Trumpowi podczas wyborów prezydenckich w 2016 roku, a także podważenia wiary w amerykańską demokrację[33][34][35].

W raporcie z 2017 r.[36] Facebook publicznie stwierdził, że jego strona była wykorzystywana przez rządy do manipulowania opinią publiczną w innych krajach – w tym podczas wyborów prezydenckich w USA i Francji. Zidentyfikowano trzy główne elementy zaangażowane w kampanię informacyjną: ukierunkowane zbieranie danych, tworzenie treści i fałszywe wzmacnianie oraz kradzież i ujawnianie informacji, które nie są publiczne; rozpowszechnianie fałszywych lub prawdziwych historii osobom trzecim za pośrednictwem fałszywych kont; oraz koordynowanie fałszywych kont w celu manipulowania dyskusją polityczną, na przykład wzmacniania niektórych głosów, a tłumienie innych[37][38].

W polityce[edytuj | edytuj kod]

W 2016 roku Andrés Sepúlveda ujawnił, że manipulował opinią publiczną w celu sfałszowania wyborów w Ameryce Łacińskiej. Według niego, dysponując budżetem 600 000 dolarów, kierował zespołem hakerów, którzy kradli strategie kampanii, manipulowali mediami społecznościowymi w celu tworzenia fałszywego entuzjazmu i szyderstwa oraz instalował oprogramowanie szpiegowskie w biurach opozycji, aby pomóc Enrique Peña Nieto, kandydatowi wygrać meksykańskie wybory[39][40].

W okresie poprzedzającym wybory w Indiach w 2014 r. Zarówno partia Bharatiya Janata (BJP), jak i Partia Kongresu zostały oskarżone o zatrudnianie politycznych trolli, aby przychylnie pisali o nich na blogach i w mediach społecznościowych[31].

Uważa się również, że chiński rząd kieruje tak zwaną „Armią pięćdzięsięciu centów” (odniesienie do tego, ile mają płacić) oraz” Internetową Armią Wodną”, aby wzmocnić przychylną opinię wobec niej i Komunistycznej Partii Chin (KPCh), a także tłumić jakikolwiek sprzeciw[31][41].

W grudniu 2014 r. powołano ukraińskie ministerstwo informacji, które miało przeciwdziałać rosyjskiej propagandzie, a jednym z jego pierwszych zadań było tworzenie kont w mediach społecznościowych (zwanych również i-Army) oraz gromadzenie użytkowników podających się za mieszkańców wschodniej Ukrainy[42][31].

Twitter zawiesił szereg kont botów, które wydawały się rozpowszechniać pro-saudyjskie tweety na temat zniknięcia saudyjskiego dziennikarza dysydenta Jamala Khashoggiego[43].

Trolling i inne zastosowania[edytuj | edytuj kod]

W kwietniu 2009 roku trolle internetowe ze społeczności 4chan wybrały Christophera Poole’a, założyciela serwisu, na najbardziej wpływową osobę na świecie w 2008 roku z 16 794 368 głosami w otwartej ankiecie internetowej przeprowadzonej przez magazyn Time. Wyniki zostały zakwestionowane jeszcze przed zakończeniem ankiety, ponieważ zautomatyzowane programy do głosowania i tak zwany ballot stuffing wpływały na głosowanie[44][45][46]. Ingerencja 4chana w głosowanie wydawała się bardziej prawdopodobna, kiedy okazało się, że litery imion pierwszych 21 kandydatów w ankiecie tworzyło akrostych zawierający frazę: „Marblecake. Also, The Game”[47].

Żartownisie i haktywiści zorientowani politycznie mogą dzielić się wyrafinowaną wiedzą na temat manipulowania Internetem i mediami społecznościowymi[48].

Środki zaradcze[edytuj | edytuj kod]

W Wired zauważono, że zasady państwowe, takie jak obowiązkowa rejestracja i groźby kary, nie są adekwatnymi środkami do walki z problemem botów internetowych[49].

Aby zabezpieczyć się przed kwestią wcześniejszych ocen wpływających na ich odbiór, kilka witryn, takich jak Reddit, podjęło kroki, takie jak ukrywanie liczby głosów na określony czas[13].

Niektóre inne potencjalne środki będące przedmiotem dyskusji to oznaczanie postów jako prawdopodobnie satyrycznych lub fałszywych[50]. Na przykład w grudniu 2016 r. Facebook ogłosił, że sporne artykuły będą oznaczane przy pomocy użytkowników i zewnętrznych weryfikatorów[51]. Firma szuka sposobów identyfikacji „operacji informacyjnych” i fałszywych kont i zawiesiła 30 000 kont przed wyborami prezydenckimi we Francji w strajku przeciwko operacjom informacyjnym[14].

Wynalazca sieci World Wide Web Tim Berners-Lee uważa, że powierzenie kilku firmom decydowania o tym, co jest, a co nie jest prawdą, jest ryzykowną propozycją i stwierdza, że otwartość może uczynić sieć bardziej godną zaufania. Jako przykład podaje Wikipedię, która choć nie jest doskonała, pozwala każdemu edytować, a kluczem do jej sukcesu jest nie tylko technologia, ale także zarządzanie witryną – ma armię niezliczonych ochotników i sposobów ustalania, co jest, a co nie jest prawdą[52].

Ponadto do zwalczania tego problemu mogą być używane różne rodzaje oprogramowania, takie jak fałszywe oprogramowanie sprawdzające lub dobrowolne rozszerzenia przeglądarki, które przechowują każdą przeczytaną witrynę lub wykorzystują historię przeglądania do dostarczania fałszywych informacji.

Ponadto Daniel Suarez zwraca się do społeczeństwa o docenienie krytycznego myślenia analitycznego i sugeruje reformy edukacji, takie jak wprowadzenie „logiki formalnej” jako dyscypliny w szkołach oraz szkolenie w zakresie umiejętności korzystania z mediów i obiektywnej ewaluacji treści[53].

Reakcje państwowe[edytuj | edytuj kod]

Według badań przeprowadzonych przez Oxford Internet Institute, co najmniej 43 kraje na całym świecie zaproponowały lub wdrożyły przepisy specjalnie zaprojektowane w celu rozwiązania problemów różnych aspektów manipulacji Internetem, w tym fałszywych wiadomości, nadużyć w mediach społecznościowych i ingerencji w wybory[54].

Niemcy[edytuj | edytuj kod]

W Niemczech w okresie poprzedzającym wybory we wrześniu 2017 r. wszystkie główne partie polityczne poza AfD publicznie ogłosiły, że nie będą wykorzystywać botów społecznościowych w swoich kampaniach. Ponadto zobowiązali się do zdecydowanego potępienia takiego wykorzystania botów internetowych.

Poczyniono kroki w kierunku regulacji dotyczących mediów społecznościowych: trzy niemieckie landy Hesja, Bawaria i Saksonia-Anhalt zaproponowały na początku 2017 r. ustawę, która oznaczałaby, że użytkownicy mediów społecznościowych mogliby zostać postawieni przed sądem, gdyby naruszyli warunki funkcjonowania na tego typu platformach. Na przykład użycie pseudonimu na Facebooku lub utworzenie fałszywego konta byłoby zagrożone karą do jednego roku pozbawienia wolności[55].

Włochy[edytuj | edytuj kod]

Na początku 2018 r. Włoska Agencja Komunikacji AGCOM opublikowała na swojej stronie internetowej zestaw wytycznych dotyczących wyborów w marcu tego samego roku. Sześć głównych tematów to[56]:

  1. Równe traktowanie podmiotów politycznych
  2. Przejrzystość propagandy politycznej
  3. Nielegalne działania i treści, których rozpowszechnianie jest zabronione (na przykład ankiety)
  4. Konta społecznościowe administracji publicznej
  5. Propaganda polityczna jest zabroniona w dniu wyborów i dzień wcześniej
  6. Zalecenia dotyczące precyzyjniejszej weryfikacji faktów

Francja[edytuj | edytuj kod]

W listopadzie 2018 roku we Francji uchwalono ustawę zakazującą manipulowania informacjami. Prawo stanowi, że w okresach kampanii[57]:

  • Platformy cyfrowe muszą ujawniać kwotę zapłaconą za reklamy oraz nazwiska ich autorów. Po przekroczeniu określonego progu ruchu platformy muszą mieć przedstawiciela obecnego we Francji i muszą opublikować zastosowane algorytmy.
  • Sędzia może wydać nakaz prawny, aby szybko zatrzymać rozpowszechnianie fałszywych wiadomości. Taki fake news musi spełniać następujące warunki: a) musi być oczywisty; b) musi być rozpowszechniany na masową skalę; oraz (c) musi doprowadzić do zakłócenia pokoju lub musi zagrozić wynikom wyborów.

Malezja[edytuj | edytuj kod]

W kwietniu 2018 roku parlament Malezji przyjął ustawę Anti-Fake News Act. Zdefiniował fałszywe wiadomości jako „wiadomości, informacje, dane i raporty, które są całkowicie lub częściowo fałszywe”[58]. Dotyczyło to obywateli lub osób pracujących przy mediach cyfrowych, którym groziła kara do 6 lat pozbawienia wolności. Ustawa została uchylona po ostrej krytyce w sierpniu 2018 r.[59]

Kenia[edytuj | edytuj kod]

W maju 2018 roku prezydent Uhuru Kenyatta podpisał ustawę o komputerach i cyberprzestępczości, która kryminalizuje cyberprzestępstwa, w tym cyberprzemoc i cyberprzestępczość. Jeżeli osoba „celowo publikuje fałszywe, wprowadzające w błąd lub fikcyjne dane lub dezinformuje z zamiarem użycia tych danych jako autentycznych lub też jak gdyby te dane były traktowane jako autentyczne”, podlega grzywnie i karze do dwóch lat pozbawienia wolności[60].

Badania[edytuj | edytuj kod]

Niemiecka kanclerz Angela Merkel wydała Bundestagowi polecenie zajęcia się problematyką manipulowania politycznego przez boty społeczne lub fake newsy[61].

Przypisy[edytuj | edytuj kod]

  1. Samuel C. Woolley, Philip N Howard, Computational propaganda. Political parties, politicians, and political manipulation on social media, New York, NY, United States of America, ISBN 978-0-19-093141-4, OCLC 1050454659 [dostęp 2020-10-28].
  2. Marchal, Nahema; Neudert, Lisa-Maria (2019). „Polarisation and the use of technology in political campaigns and communication” (PDF). European Parliamentary Research Service.
  3. Robert Gorwa, Douglas Guilbeault, Unpacking the Social Media Bot: A Typology to Guide Research and Policy, „Policy & Internet”, 12 (2), 2020, s. 225–248, DOI10.1002/poi3.184, ISSN 1944-2866 [dostęp 2020-10-28] (ang.).
  4. „Cognitive Hacking” (PDF). 2003. Dostęp: 2020-10-28.
  5. Paul Thompson, Cognitive hacking and intelligence and security informatics, Dawn A. Trevisani, Alex F. Sisti (red.), Orlando, FL , 13 sierpnia 2004, s. 142–151, DOI10.1117/12.554454 [dostęp 2020-10-28].
  6. Cognitive Hacking: A Battle for the Mind” (PDF). Dostęp: 2020-10-28.
  7. Manuel Castells, Networks of outrage and hope. Social movements in the Internet age, wyd. Second edition, Cambridge, UK, ISBN 0-7456-9577-9, OCLC 910968869 [dostęp 2020-10-28].
  8. „Condemnation over Egypt’s internet shutdown”. Financial Times. Data dostępu: 2020-10-29.
  9. Net neutrality wins in Europe – a victory for the internet as we know it”. ZME Science. 31 sierpnia 2016. Data dostępu: 2020-10-29.
  10. Jonah Berger, Katherine L. Milkman, What Makes Online Content Viral?, „Journal of Marketing Research”, 49 (2), 2012, s. 192–205, DOI10.1509/jmr.10.0353, ISSN 0022-2437 [dostęp 2020-10-28] (ang.).
  11. Hoff, Carsten Klotz von (6 kwietnia 2012). „Manipulation 2.0 – Meinungsmache via Facebook” (po niemiecku). Der Freitag. Dostęp: 2020-10-28.
  12. Golda, Christopher P. (2015). Informational Social Influence and the Internet: Manipulation in a Consumptive Society. Dostęp: 2020-10-28.
  13. a b Moderators: New subreddit feature – comment scores may be hidden for a defined time period after posting • /r/modnews”. Reddit. Dostęp: 2020-10-28.
  14. a b Solon, Olivia (27 April 2017). „Facebook admits: governments exploited us to spread propaganda”. The Guardian. Dostęp: 2020-10-28.
  15. Die Scheinwelt von Facebook & Co. (niemiecki film dokumentalny telewizji ZDF)” (in German). Dostęp: 2020-10-28.
  16. a b Ich habe nur gezeigt, dass es die Bombe gibt”. Das Magazin. 3 Grudnia 2016. Dostęp: 2020-10-28.
  17. Beuth, Patrick (6 Grudnia 2016). „US-Wahl: Big Data allein entscheidet keine Wahl”. (po niemiecku) Die Zeit. Data dostępu: 2020-10-29.
  18. „The Data That Turned the World Upside Down”. Motherboard. 2017-01-28. Data dostępu: 2020-10-29.
  19. World Trends in Freedom of Expression and Media Development Global Report 2017/2018. UNESCO. 2018. p. 202.
  20. Flaxman, Seth, Sharad Goel, and Justin M. Rao. 2016. Filter bubbles, echo chambers, and online news consumption. Public Opinion Quarterly 80 (S1): 298–320.
  21. Pariser, Eli. 2011. The filter bubble: What the Internet is hiding from you. Penguin UK. Accessed 20 May 2017.
  22. Max Grömping, ‘Echo Chambers’: Partisan Facebook Groups during the 2014 Thai Election, „Asia Pacific Media Educator”, 24 (1), 2014, s. 39–59, DOI10.1177/1326365X14539185, ISSN 1326-365X [dostęp 2020-10-28] (ang.).
  23. Gentzkow, Matthew, and Jesse M. Shapiro. 2011. Ideological segregation online and offline. The Quarterly Journal of Economics 126 (4): 1799–1839.
  24. Zuiderveen Borgesius, Frederik J., Damian Trilling, Judith Moeller, Balázs Bodó, Claes H. de Vreese, and Natali Helberger. 2016. Should We Worry about Filter Bubbles? Available at https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2758126. Accessed 20 May 2017.
  25. Bakshy, Eytan, Solomon Messing, and Lada A. Adamic. 2015. Exposure to ideologically diverse news and opinion on Facebook. Science 348 (6239): 1130–1132.
  26. Hargittai. 2015. Why doesn’t Science publish important methods info prominently? Crooked Timber. Available at http://crookedtimber.org/2015/05/07/why-doesnt-science-publish-important-methods-info-prominently/. Accessed 20 May 2017.
  27. „Snowden leaks: GCHQ ‘attacked Anonymous’ hackers”. BBC News. BBC. 5 lutego 2014. Data dostępu: 2020-10-29.
  28. a b c d e f g h „Snowden Docs: British Spies Used Sex and 'Dirty Tricks'”. NBC News. 7 lutego 2014. Data dostępu: 2020-10-29.
  29. a b Glenn Greenwald (2014-02-24). „How Covert Agents Infiltrate the Internet to Manipulate, Deceive, and Destroy Reputations”. Data dostępu: 2020-10-29.
  30. Greenwald, Glenn and Andrew Fishman. Controversial GCHQ Unit Engaged in Domestic Law Enforcement, Online Propaganda, Psychology Research. The Intercept. 2015-06-22.
  31. a b c d Shearlaw, Maeve (2 April 2015). „From Britain to Beijing: how governments manipulate the internet”. The Guardian. Data dostępu: 2020-10-29.
  32. Chen, Adrian (2 June 2015). „The Agency”. The New York Times. Data dostępu: 2020-10-29.
  33. Watts, Clint; Weisburd, Andrew (6 sierpnia 2016), „Trolls for Trump – How Russia Dominates Your Twitter Feed to Promote Lies (And, Trump, Too)”, The Daily Beast. Data dostępu: 2020-10-29.
  34. „Russian propaganda effort likely behind flood of fake news that preceded election”, PBS NewsHour, Associated Press, 25 listopada 2016. Data dostępu: 2020-10-29.
  35. „Russian propaganda campaign reportedly spread ‘fake news’ during US election”, Nine News, Agence France-Presse, 26 listopada 2016. Data dostępu: 2020-10-29.
  36. Information Operations and Facebook” (PDF). 27 April 2017. Data dostępu: 2020-10-29.
  37. Facebook targets coordinated campaigns spreading fake news”. CNET. Data dostępu: 2020-10-29.
  38. „Facebook, for the first time, acknowledges election manipulation”. Data dostępu: 2020-10-29.
  39. „How to Hack an Election”. Bloomberg. Data dostępu: 2020-10-29.
  40. „Man claims he rigged elections in most Latin American countries over 8 years”. The Independent. 2 kwietnia 2016.Data dostępu: 2020-10-29.
  41. Rebecca MacKinnon, Consent of the networked. The worldwide struggle for Internet freedom, New York: Basic Books, 2012, ISBN 978-0-465-02442-1, OCLC 731913230 [dostęp 2020-10-29].
  42. „Ukraine’s new online army in media war with Russia”. BBC. Data dostępu: 2020-10-29.
  43. Twitter pulls down bot network that pushed pro-Saudi talking points about disappeared journalist”. NBC News. Data dostępu: 2020-10-29.
  44. Heater, Brian (April 27, 2009). „4Chan Followers Hack Time’s 'Influential' Poll”. PC Magazine. Data dostępu: 2020-10-29.
  45. Schonfeld, Erick (April 21, 2009). „4Chan Takes Over The Time 100”. Washington Post. Data dostępu: 2020-10-29.
  46. „Moot wins, Time Inc. loses « Music Machinery”. Musicmachinery.com. Kwiecień 27, 2009. Data dostępu: 2020-10-29.
  47. Reddit Top Links. „Marble Cake Also the Game [PIC]”. Buzzfeed.com. Data dostępu: 2020-10-29.
  48. Maslin, Janet (31 May 2012). „'We Are Anonymous’ by Parmy Olson”. The New York Times. Data dostępu: 2020-10-29.
  49. Debatte um „Social Bots”: Blinder Aktionismus gegen die eigene Hilflosigkeit” (po niemiecku). WIRED Germany. 23 January 2017. Data dostępu: 2020-10-29.
  50. HOW TECHNOLOGY IS CHANGING THE WAY WE THINK – Daniel Suarez, Jan Kalbitzer & Frank Rieger”. 7 Grudnia 2016. Data dostępu: 2020-10-29.
  51. Jamieson, Amber; Solon, Olivia (15 Grudnia 2016). „Facebook to begin flagging fake news in response to mounting criticism”. The Guardian. Data dostępu: 2020-10-29.
  52. Finley, Klint (2017-04-04). „Tim Berners-Lee, Inventor of the Web, Plots a Radical Overhaul of His Creation”. Wired. Data dostępu: 2020-10-29.
  53. HOW TECHNOLOGY IS CHANGING THE WAY WE THINK – Daniel Suarez, Jan Kalbitzer & Frank Rieger”. 7 December 2016. Data dostępu: 2020-10-29.
  54. Bradshaw, Samantha; Neudert, Lisa-Maria; Howard, Philip N. (2018). „Government Responses to Malicious Use of Social Media”. Nato Stratcom Coe. ISBN 978-9934-564-31-4.
  55. Reuter, Markus. „Hausfriedensbruch 4.0: Zutritt für Fake News und Bots strengstens verboten”. (po niemiecku) Netzpolitik. Data dostępu: 2020-10-29.
  56. Bellezza, Marco; Frigerio, Filippo Frigerio. „ITALY: First Attempt to (Self)Regulate the Online Political Propaganda”. Data dostępu: 2020-10-29.
  57. „Against information manipulation”. Gouvernement.fr. Data dostępu: 2020-10-29.
  58. Menon, Praveen. „Malaysia outlaws ‘fake news’; sets jail of up to six years”. Reuters. Data dostępu: 2020-10-29.
  59. Yeung, Jessie. „Malaysia repeals controversial fake news law”. CNN. Data dostępu: 2020-10-29.
  60. Schwartz, Arielle. „Kenya signs bill criminalising fake news”. Mail & Guardian. Data dostępu: 2020-10-29.
  61. „Bundestagsdebatte: Merkel schimpft über Internet-Trolle”. Sueddeutsche.de (po niemiecku). Süddeutsche Zeitung. 1 listopada 2016. Data dostępu: 2020-10-29.

Linki zewnętrzne[edytuj | edytuj kod]