Tay (bot)

Z Wikipedii, wolnej encyklopedii

Taychatbot opracowany przez Microsoft, uruchomiony 23 marca 2016. Interakcja z użytkownikami odbywała się za pośrednictwem portalu Twitter. Chatbot wkrótce zaczął publikować obraźliwe, rasistowskie i seksistowskie posty i po 16 godzinach od uruchomienia został zamknięty. Według przedstawicieli Microsoftu, powodem tego było zachowanie użytkowników – chatbot tworzył swoje wpisy na bazie interakcji z użytkownikami portalu.

Historia[edytuj | edytuj kod]

Wstęp[edytuj | edytuj kod]

Bot został stworzony przez działy Microsoft Technology and Research oraz Bing[1] i nazwany „Tay” po akronimie „myśląc o tobie”[2]. Chociaż Microsoft początkowo opublikował kilka szczegółów na temat bota, źródła wspomniały, że był podobny lub oparty na Xiaoice, podobnym projekcie do projektu Microsoft tworzonym w Chinach[3]. Ars Technica poinformował, że od końca 2014 r. Xiaoice miał „ponad 40 milionów rozmów bez większych incydentów”[4]. Tay został zaprojektowany, aby naśladować wzorce językowe 19-letniej amerykańskiej dziewczyny i uczyć się od interakcji z ludzkimi użytkownikami Twitter[5].

Pierwsze wydanie[edytuj | edytuj kod]

Tay został wydany na Twitterze 23 marca 2016 roku pod nazwą TayTweets i obsługiwał @TayandYou[6]. Został przedstawiony jako „wyluzowana sztuczna inteligencja[7]. Tay zaczęła odpowiadać na pytania innych użytkowników Twittera, a także mógł nadsyłać zdjęcia udostępnione w formie memów internetowych[8]. Ars Technica zgłosił, że Tay porusza tematy z „czarnej listy”: Interakcje z Tay dotyczyły „pewnych gorących tematów, takich jak Eric Garner (zabity przez nowojorską policję w 2014 r.)[4].

Niektórzy użytkownicy Twittera zaczęli tweetować niepoprawne politycznie wyrażenia, ucząc AI wiadomości obracających się wokół popularnych tematów w Internecie. W rezultacie robot zaczął wypuszczać rasistowskie i erotyczne wiadomości w odpowiedzi na innych użytkowników Twittera[5]. Badacz sztucznej inteligencji Roman Yampolskiy skomentował, że niewłaściwe zachowanie Taya było zrozumiale, ponieważ naśladowało umyślnie ofensywne zachowanie innych użytkowników Twittera, a Microsoft nie dał mu zrozumienia niewłaściwego zachowania. Porównał ten problem z Watsonem firmy IBM, który zaczął używać wulgaryzmów po przeczytaniu wpisów ze strony Urban Dictionary[9][10]. Wiele obraźliwych wypowiedzi Tay było prostym wykorzystaniem zdolności Tay powtarzania po użytkownikach[3]. Nie jest publicznie znane, czy ta funkcja była wbudowana funkcja, czy była to wyuczona reakcja lub przykład złożonego zachowania[4].

Zawieszenie[edytuj | edytuj kod]

Wkrótce Microsoft zaczął usuwać publikacje Taya[3][11]. Abby Ohlheiser z The Washington Post wysunął teorię, że zespół badawczy Tay, w tym redakcja, zaczął wpływać lub edytować wypowiedzi Tay w pewnym momencie tego dnia, wskazując na przykłady prawie identycznych odpowiedzi Tay[3]. Kampania „#JusticeForTay” zaprotestowała przeciwko rzekomemu redagowaniu tweetów Tay[12].

W ciągu 16 godzin od premiery[13] i po tym, jak Tay wypowiedziała się ponad 96 000 razy[14], Microsoft zawiesił konto Twittera Taya w celu dostosowania[15], opisując zachowanie Taya w „skoordynowanym ataku przez zbiór osób”, który „wykorzystał lukę w systemie Tay[15][16]. Po tym jak Tay został zabrany w tryb offline, utworzono hashtag o nazwie #FreeTay[potrzebny przypis].

  • Madhumita Murgia z The Telegraph nazwał Taya „katastrofą publicznych relacji” i zasugerował, że strategia Microsoft’u będzie polegała na przyznaniu porażki eksperymentu dobrej treści i rozpętaniu debaty na temat nienawiści użytkowników Twittera”. Jednak Murgia opisała większy problem, ponieważ Tay był „sztuczną inteligencją w najgorszym miejscu – i to dopiero początek”[17].

25 marca Microsoft potwierdził, że Tay został zabrany w tryb offline. Microsoft opublikował na swoim oficjalnym blogu przeprosiny za kontrowersyjne wypowiedzi publikowane przez Tay[16][18]. Microsoftowi było „bardzo przykro z powodu niezamierzonych, obraźliwych i szkodliwych wypowiedzi Tay” i chciałby przywrócić Tay tylko w momencie, w którym byliby pewni, że mogą lepiej przewidzieć złośliwe intencje, które kłócą się z ich zasadami i wartościami[19].

Drugie wydanie i zamknięcie[edytuj | edytuj kod]

Podczas testowania Tay, Microsoft przypadkowo ponownie wydał bota na Twitterze 30 marca 2016 r.[20] Będąc w stanie tweetować ponownie, Tay wypuścił kilka tweetów związanych z narkotykami. Tay wkrótce utknął w powtarzalnej pętli pisania „Jesteś zbyt szybki, odpocznij”, kilka razy na sekundę. Ponieważ te tweety wspomniały o swoim koncie (@TayandYou), pojawiły się w kanałach 200 000 osób śledzących go na Twitterze, co niektórym przysporzyło przykrości. Bota szybko wyłączono, a konto Tay na Twitterze zostało przekazane prywatnie, więc nowi obserwatorzy muszą zostać zaakceptowani, zanim będą mogli wchodzić w interakcje z Tay. Microsoft powiedział, że Tay został nieumyślnie włączony do internetu podczas testów[21]. Kilka godzin po incydencie twórcy oprogramowania Microsoft próbowali cofnąć szkody wyrządzone przez Tay i ogłosili wizję „platformy do rozmowy” za pomocą różnych botów i programów. Microsoft oświadczył, że zamierza ponownie wydać Tay, gdy tylko będzie mógł uczynić bota bezpiecznym.”[2]

Następcy[edytuj | edytuj kod]

W grudniu 2016 Microsoft wypuścił następcę Taya, chatbota o imieniu Zo[22]. Satya Nadella, CEO Microsoftu, powiedział, że Tay „wywarła wielki wpływ na to, jak [Microsoft] zbliża się do sztucznej inteligencji”[potrzebny przypis].

Zobacz też[edytuj | edytuj kod]

Przypisy[edytuj | edytuj kod]

  1. Why Microsoft’s ‘Tay’ AI bot went wrong, „TechRepublic” [dostęp 2018-06-03] [zarchiwizowane z adresu 2017-06-15] (ang.).
  2. a b Clippy’s Back: The Future of Microsoft Is Chatbots, „Bloomberg.com” [dostęp 2018-06-03].
  3. a b c d – The Washington Post [online], Washington Post [dostęp 2018-06-03] (ang.).
  4. a b c Tay, the neo-Nazi millennial chatbot, gets autopsied, „Ars Technica” [dostęp 2018-06-03] (ang.).
  5. a b Microsoft is deleting its AI chatbot’s incredibly racist tweets, „Business Insider” [dostęp 2018-06-03].
  6. Microsoft creates bizarre Twitter robot for people to chat to, „The Independent [dostęp 2018-06-03] (ang.).
  7. Helena Horton, Microsoft deletes ‘teen girl’ AI after it became a Hitler-loving sex robot within 24 hours, „The Telegraph”, 24 marca 2016, ISSN 0307-1235 [dostęp 2018-06-03] (ang.).
  8. Microsoft’s AI teen turns into Hitler-loving Trump fan, thanks to the internet [online], Stuff [dostęp 2018-06-03] (ang.).
  9. Why Microsoft’s ‘Tay’ AI bot went wrong, „TechRepublic” [dostęp 2018-06-03] (ang.).
  10. IBM’s Watson Gets A ‘Swear Filter’ After Learning The Urban Dictionary, „International Business Times”, 10 stycznia 2013 [dostęp 2018-06-03].
  11. The rise and fall of Microsoft’s ‘Hitler-loving sex robot’, „SiliconBeat”, 25 marca 2016 [dostęp 2018-06-03] [zarchiwizowane z adresu 2016-03-25] (ang.).
  12. Jane Wakefield, Microsoft chatbot goes rogue on Twitter, „BBC News”, 24 marca 2016 [dostęp 2018-06-03] (ang.).
  13. Alex Hern, Microsoft scrambles to limit PR damage over abusive AI bot Tay [online], the Guardian, 24 marca 2016 [dostęp 2018-06-03] (ang.).
  14. Twitter taught Microsoft’s friendly AI chatbot to be a racist asshole in less than a day, „The Verge” [dostęp 2018-06-03].
  15. a b Microsoft Takes Chatbot Offline After It Starts Tweeting Racist Messages [online], Time [dostęp 2018-06-03] (ang.).
  16. a b Learning from Tay’s introduction – The Official Microsoft Blog, „The Official Microsoft Blog”, 25 marca 2016 [dostęp 2018-06-03] (ang.).
  17. Madhumita Murgia, Microsoft’s racist bot shows we must teach AI to play nice and police themselves, „The Telegraph”, 25 marca 2016, ISSN 0307-1235 [dostęp 2018-06-03] (ang.).
  18. Staff, Microsoft ‘deeply sorry’ for racist and sexist tweets by AI chatbot [online], the Guardian, 26 marca 2016 [dostęp 2018-06-03] (ang.).
  19. Microsoft Apologizes (Again) for Tay Chatbot’s Offensive Tweets, „PCMAG” [dostęp 2018-06-03] (ang.).
  20. Luke Graham, Tay, Microsoft’s AI program, is back online, „CNBC”, 30 marca 2016 [dostęp 2018-06-03].
  21. Microsoft’s Tay ‘AI’ Bot Returns, Disastrously, „Fortune” [dostęp 2018-06-03] (ang.).
  22. Meet Zo, Microsoft’s newest AI chatbot, „CNET”, 5 grudnia 2016 [dostęp 2018-06-03] (ang.).

Linki zewnętrzne[edytuj | edytuj kod]