Generatywna sztuczna inteligencja
Generatywna sztuczna inteligencja (ang. generative artificial intelligence, generative AI, GenAI) – ogół narzędzi sztucznej inteligencji służących do generowania tekstu, obrazów, filmów i innych danych z wykorzystaniem modeli generatywnych, najczęściej na podstawie podanych przez użytkownika podpowiedzi (ang. prompts)[1]. Modele generatywnej sztucznej inteligencji uczą się wzorców i struktury danych wejściowych, a następnie generują nowe dane o podobnych cechach[2].

Ulepszenia głębokich sieci neuronowych opartych na transformerach, w szczególności dużych modeli językowych (LLM), umożliwiły rozwój generatywnych systemów sztucznej inteligencji na początku lat dwudziestych XXI wieku. Należą do nich chatboty, takie jak ChatGPT, Copilot, Gemini, DeepSeek i Claude, systemy generowania obrazu oparte na sztucznej inteligencji przekształcające tekst na obraz, takie jak Stable Diffusion, Midjourney i DALL-E, a także generatory przetwarzające tekst na wideo (np Sora) lub muzykę. Firmy takie jak OpenAI, Anthropic, Microsoft, Google i Baidu, a także wiele mniejszych firm opracowały własne generatywne modele sztucznej inteligencji[3][4].
Generatywna sztuczna inteligencja ma zastosowania w wielu różnych branżach, w tym w tworzeniu oprogramowania, opiece zdrowotnej, finansach, rozrywce, obsłudze klienta[5], sprzedaży i marketingu[6], sztuce, literaturze[7], modzie[8] i projektowaniu produktów[9]. Produkcja systemów generatywnej sztucznej inteligencji wymaga dużych centr danych wykorzystujących specjalistyczne chipy, co z kolei oznacza duże zużycie energii elektrycznej do zasilania procesorów i wody do ich chłodzenia[10].
Generatywna sztuczna inteligencja zrodziła wiele pytań natury etycznej i wyzwań dla rządów, z uwagi na możliwość wykorzystania jej do cyberprzestępczości, a także do oszukiwania lub manipulowania ludźmi poprzez fake newsy lub deepfake'i[11][12]. Nawet jeśli będzie wykorzystywana w sposób etyczny, może doprowadzić do masowego wyparcia ludzi z miejsc pracy[13]. Same programy spotkały się z zarzutem naruszenia praw własności intelektualnej, ponieważ są szkolone w oparciu o dzieła chronione prawem autorskim[14]. Intensywność zużycia zasobów i energii przez systemy sztucznej inteligencji wywołuje obawy dotyczące wpływu sztucznej inteligencji na środowisko, zwłaszcza w kontekście wyzwań związanych z transformacją energetyczną[10].
Historia
[edytuj | edytuj kod]Wczesna historia
[edytuj | edytuj kod]
Pomysł generatywnej sztuki był znany w starożytnej Grecji gdzie tacy wynalazcy jak Dedal czy Heron z Aleksandrii byli opisywani jako potrafiący tworzyć maszyny automaton, które potrafiły pisać tekst, tworzyć dźwięki czy grać muzykę[15][16]. Jednym z bardziej znanych maszyn tego typu jest automaton Maillardeta.
Łańcuch Markowa był używany do analizy tekstu naturalnego od pierwszej publikacji przez jego twórcę Andrieja Markowa, który w 1906 opublikował analizę samogłosek w powieści Eugeniusz Oniegin[17][18]. Gdy łańcuch nauczy się korpusu języka, może zostać użyty jako generator tekstu oparty na prawdopodobieństwie[19][20].
Badania nad sztuczną inteligencją
[edytuj | edytuj kod]Od lat 50. XX wieku artyści i badacze wykorzystywali sztuczną inteligencję do tworzenia dzieł artystycznych. Już w latach 70. Harold Cohen tworzył i prezentował generatywne dzieła sztuki oparte na AI, stworzone za pomocą AARON-a – programu komputerowego zaprojektowanego w celu generowania obrazów[21].
Terminy planowanie generatywne był używany w latach 80. i 90. XX wieku w odniesieniu do systemów planowania wykorzystujących sztuczną inteligencję (zwłaszcza systemów CAPP), które służyły do generowania sekwencji kroków wymaganych do osiągnięcia określonego celu[22][23].
Systemy generatywnego planowania AI wykorzystywały symboliczne metody, takie jak przeszukiwanie przestrzeni stanów i rozwiązywanie problemów z ograniczeniami, i były już stosunkowo dojrzałą technologią na początku lat 90. Wykorzystywano je do tworzenia planów działania w sytuacjach kryzysowych na potrzeby wojska[24], planów procesów produkcyjnych[25] oraz planów decyzyjnych, m.in. w prototypowych autonomicznych statkach kosmicznych[26].
Generatywne sieci neuronowe (2000–2019)
[edytuj | edytuj kod]
Od początku swojego istnienia dziedzina uczenia maszynowego wykorzystywała do przewidywania danych zarówno modele dyskryminacyjne (zwracające przewidywaną klasyfikację lub rozkład warunkowy zmiennej objaśnianej), jak i generatywne (umożliwiające generowanie potencjalnych obserwacji). Począwszy od końca lat 2000, pojawienie się uczenia głębokiego napędziło postęp oraz badania w obszarach takich jak klasyfikacja obrazów, rozpoznawanie mowy czy przetwarzanie języka naturalnego. Sieci neuronowe w tym okresie były zazwyczaj trenowane jako modele dyskryminacyjne ze względu na trudności związane z modelowaniem generatywnym[27][28].
W miarę jak uczenie głębokie zyskiwało na popularności w latach 2010., coraz większym zainteresowaniem cieszyły się modele generowania obrazów z wykorzystaniem głębokich sieci neuronowych, takie jak DeepDream oparty na sieciach konwolucyjnych[29]. W 2014 roku pojawiły się przełomowe rozwiązania, takie jak autoenkodery wariacyjne i generatywne sieci przeciwstawne (GAN) pozwalające na tworzenie bardziej zaawansowanych modeli generatywnych.
Przedstawiona w 2017 architektura transformerów umożliwiła postęp w modelach generatywnych w porównaniu do starszych modeli wykorzystujących długą pamięć krótkotrwałą[30]. Doprowadziło to do stworzenia architektury GPT-1 w 2018 i GPT-2 w 2019[31].
Nowe modele generatywne wprowadzone w tym okresie pozwoliły na uczenie nienadzorowane, co pozwoliło na znaczne ograniczenie lub eliminację czynnika ludzkiego w przygotowywaniu zbiorów uczących, co pozwoliło na tworzenie dużych modeli językowych[32].
Rozkwit generatywnej sztucznej inteligencji (od 2020 roku)
[edytuj | edytuj kod]W marcu 2020 roku udostępniono 15.ai – darmową aplikację internetową stworzoną przez anonimowego badacza z MIT, która potrafiła generować realistyczne głosy postaci przy użyciu minimalnej ilości danych treningowych. Był to jeden z pierwszych przypadków powszechnego wykorzystania generatywnej AI[33].
Pojawienie się w 2021 roku usługi DALL-E – modelu generującego obrazy z tekstu – stanowiło przełom w dziedzinie obrazów generowanych przez sztuczną inteligencję[34]. W ślad za tym, powstały takie narzędzia jak Midjourney[35] czy Stable Diffusion w 2022[36].

W listopadzie 2022 OpenAI wydało ChatGPT[37], który potrafił przeprowadzać konwersację z użytkownikiem, a później także generować obrazy, asystować przy tworzeniu kodu i przeprowadzać analizy, co spowodowało debatę nad wpływem generatywnej sztucznej inteligencji w przemyśle, edukacji czy sztuce[38].
W grudniu 2023 Google wprowadziło Gemini, multimodalny model sztucznej inteligencji dostępny w czterech wersjach: Ultra, Pro, Flash i Nano[39]. Firma zintegrowała Gemini Pro ze swoim chatbotem Bard i zapowiedziała wprowadzenie „Bard Advanced” opartego na większym modelu Gemini Ultra[40]. W lutym 2024 r. firma Google połączyła programy Bard i Duet AI pod marką Gemini, wprowadzając aplikację mobilną na system Android i integrując usługę z aplikacją Google na system iOS[41].
W marcu 2024 Anthropic zaprezentował rodzinę dużych modeli językowych Claude 3, obejmującą modele Claude 3 Haiku, Sonnet i Opus[42]. Modele te wykazały znaczną poprawę wydajności w różnych testach porównawczych, a model Claude 3 Opus znacznie przewyższył czołowe modele firm OpenAI i Google[43]. W czerwcu 2024 roku Anthropic wprowadził na rynek Claude 3.5 Sonnet, który osiągał lepsze wyniki niż większy model Claude 3 Opus, zwłaszcza w takich obszarach jak kodowanie, wieloetapowe procesy robocze i analiza obrazów[44].
W styczniu 2025 firma DeepSeek wypuściła model R1, stanowiący alternatywę dla takich usług jak ChatGPT czy Claude[45].
Zastosowania
[edytuj | edytuj kod]Generatywna sztuczna inteligencja jest wykorzystywana w wielu branżach.
Generowanie tekstu i kodu
[edytuj | edytuj kod]Generatywne systemy AI trenowane na korpusach tekstowych obejmują Bielik, PLLuM, GPT, Mistral, Gemini, Claude, DeepSeek, Qwen i inne. Są one używane do przetwarzania języka naturalnego, tłumaczenia maszynowego i generowania języka naturalnego.
Oprócz tekstu w języku naturalnym, duże modele językowe można trenować na kodzie języka programowania, co pozwala im generować kod źródłowy dla nowych programów komputerowych[46]. Przykładem zastosowania GenAI do generowania kodu jest GitHub Copilot.
Obrazy
[edytuj | edytuj kod]Tworzenie obrazów jest jednym z głównych zastosowań generatywnej sztucznej inteligencji[47].
Wideo
[edytuj | edytuj kod]Generatywna sztuczna inteligencja wytrenowana na oznaczonych filmach może generować spójne czasowo, szczegółowe i fotorealistyczne materiały wideo. Przykłady takich technologii to m.in. Sora firmy OpenAI[48], Runway[49] oraz Make-A-Video od Meta Platforms[50].
Robotyka
[edytuj | edytuj kod]Generatywna sztuczna inteligencja może być również wytrenowana na podstawie ruchów systemu robotycznego, aby generować nowe trajektorie do planowania ruchu lub nawigacji[51][52].
Oprogramowanie i sprzęt
[edytuj | edytuj kod]
Generatywna sztuczna inteligencja znajduje zastosowanie m.in. w tworzeniu czatbotów, takich jak ChatGPT, narzędzi programistycznych, jak GitHub Copilot[53], generowaniu obrazów z tekstu (np. Stable Diffusion) oraz wideo z tekstu (np. Sora). Modele generatywne są również integrowane z produktami biurowymi, takimi jak Microsoft Office[54].
Mniejsze modele generatywne (poniżej 10 miliardów parametrów) mogą działać na niewielkich urządzeniach, takich jak Raspberry Pi[55] lub iphone.
Z kolei modele zawierające dziesiątki miliardów parametrów mogą być uruchamiane na laptopach lub komputerach stacjonarnych, choć często wymagają one dodatkowych akceleratorów, takich jak GPU czy NPU[56].

Modele liczące setki miliardów parametrów, takie jak GPT-4, wymagają specjalistycznych serwerów wyposażonych w macierze GPU, jak Nvidia H100, lub NPU (np. Google TPU). Centra danych obsługujące takie systemy potrafią pobierać 100-150 MW energii elektrycznej[57][58][59]. W 2024 roku cena jednej karty GPU klasy serwerowej, takiej jak Nvidia H100, wynosi 25-30 tys. USD[60].
W 2022 roku Stany Zjednoczone wprowadziły ograniczenia eksportu zaawansowanych układów obliczeniowych do Chin. W odpowiedzi powstały takie rozwiązania jak Nvidia A800[61], H800[62] oraz Biren Technology BR104[63]. Kolejne zaostrzenia ogłoszone przez administrację Stanów Zjednoczonych[64] doprowadziły do opracowania układu Nvidia H20 w roku 2024, zaprojektowanego specjalnie z myślą o rynku chińskim[65], których sprzedaż została jednak zablokowana w kwietniu 2025[66].
W 2024 roku zaproponowano nowy system ograniczeń eksportu zaawansowanych chipów korzystających z technologii ze Stanów Zjednoczonych z podziałem na 3 grupy państw[67][68]:
- kraje bez ograniczeń w imporcie, takie jak Stany Zjednoczone, Niemcy, Francja czy Japonia,
- kraje z limitem wynoszącym 50 tys. zaawansowanych chipów, m.in. Polska, Izrael, Meksyk czy Indonezja,
- kraje objęte zakazem eksportu, takie jak Chiny, Rosja.
W maju 2025 administracja Trumpa odrzuciła propozycje kategoryzacji państw w eksporcie zaawansowanych chipów na rzecz bardziej restrykcyjnych przepisów wymagających wykorzystanie sprzętu za granicą tylko w ramach infrastruktury kontrolowanej przez amerykańskie firmy technologiczne[69].
W styczniu 2025 ogłoszono projekt Stargate zakładający inwestycje na poziomie 500 mld USD w centra danych w Stanach Zjednoczonych wspomagające działanie aplikacji sztucznej inteligencji[70], zaś trzy tygodnie później UE ogłosiła program inwestycji w AI w kwocie 200 mld euro[71].
Modele i techniki generatywne
[edytuj | edytuj kod]Sieci generatywne GAN
[edytuj | edytuj kod]
Sieci generatywne GAN składają się z dwóch sieci neuronowych: generatora i dyskryminatora. Generator tworzy dane testowe, przekształcając losowy szum w próbki przypominające zestaw danych treningowych. Dyskryminator jest trenowany, aby odróżniać autentyczne dane od danych testowych wytworzonych przez generator[72]. Oba modele biorą udział w grze o sumie zerowej: generator ma na celu tworzenie coraz bardziej realistycznych danych, aby „oszukać” dyskryminator, podczas gdy dyskryminator poprawia swoją zdolność odróżniania danych rzeczywistych od fałszywych. Ta ciągła konfiguracja treningowa umożliwia generatorowi generowanie realistycznych wyników wysokiej jakości[73].
Autoenkoder wariacyjny
[edytuj | edytuj kod]Autoenkodery wariacyjne (VAE) to modele uczenia głębokiego, które losowo kodują dane. Są one zazwyczaj używane do zadań takich jak redukcja szumów z obrazów, kompresja danych, identyfikacja nietypowych wzorców i rozpoznawanie twarzy. W przeciwieństwie do standardowych autoenkoderów, które kompresują dane wejściowe do stałej reprezentacji ukrytej, VAE posiadają przestrzeń ukrytą jako rozkład prawdopodobieństwa, umożliwiając płynne próbkowanie i interpolację między punktami danych[74]. Stosuje się je w takich zastosowaniach, jak generowanie obrazu, interpolacja danych i wykrywanie anomalii.
Transformer
[edytuj | edytuj kod]
Transformery stały się podstawą wielu modeli generatywnych, w szczególności serii GPT opracowanych przez OpenAI. Wywarły one znaczący wpływ w przetwarzaniu języka naturalnego, zastępując tradycyjne modele rekurencyjne i konwolucyjne[75]. Transformery pozwalają modelom przetwarzać całe sekwencje jednocześnie i wychwytywać zagnieżdżone zależności bardziej efektywnie. Mechanizm samouwagi umożliwia modelowi wychwytywanie znaczenia każdego słowa w sekwencji podczas przewidywania kolejnego słowa, co poprawia jego kontekstowe zrozumienie. W przeciwieństwie do rekurencyjnych sieci neuronowych, transformery przetwarzają wszystkie tokeny równolegle, co poprawia wydajność i skalowalność szkolenia.
Regulacje prawne
[edytuj | edytuj kod]Obowiązująca w Unii Europejskiej Ustawa o Sztucznej Inteligencji zawiera wytyczne dotyczące informowania o chronionych prawami autorskimi materiałach wykorzystywanych do trenowania generatywnych systemów sztucznej inteligencji oraz oznaczania jako takie wszelkich wytworzonych przez sztuczną inteligencję treści[76][77].
Zastrzeżenia i obawy
[edytuj | edytuj kod]Utrata zatrudnienia
[edytuj | edytuj kod]
Od początku rozwoju sztucznej inteligencji pojawiały się argumenty, wysuwane między innymi przez twórcę ELIZY, Josepha Weizenbauma, dotyczące tego, czy zadania, które mogą być wykonywane przez komputery, rzeczywiście powinny być przez nie wykonywane, biorąc pod uwagę różnice między komputerami a ludźmi oraz między obliczeniami ilościowymi a jakościowymi, opartymi na wartościach osądami[79]. W kwietniu 2023 r. odnotowano, że w wyniku zastosowania sztucznej inteligencji do generowania obrazów zlikwidowano 70% stanowisk pracy dla ilustratorów gier wideo w Chinach[80][81]. W lipcu 2023 r. rozwój sztucznej inteligencji generatywnej przyczynił się do konfliktów pracowniczych w Hollywood w 2023 roku. Podczas strajku SAG-AFTRA w 2023 r. Fran Drescher, prezes Screen Actors Guild, oświadczyła, że „sztuczna inteligencja stanowi egzystencjalne zagrożenie dla zawodów kreatywnych”[82]. Sztuczna inteligencja służąca do generowania głosu jest postrzegana jako potencjalne zagrożenie dla branży aktorów głosowych[83][84].
Stronniczość dotycząca rasy i płci
[edytuj | edytuj kod]Modele generatywnej sztucznej inteligencji mogą odzwierciedlać i wzmacniać wszelkie uprzedzenia kulturowe obecne w danych wejściowych. Na przykład model językowy może zakładać, że lekarze i sędziowie są mężczyznami, a sekretarki lub pielęgniarki są kobietami, jeśli takie uprzedzenia są powszechne w danych treningowych[85]. Podobnie model generujący obrazy, któremu podano tekst „zdjęcie CEO”, może w nieproporcjonalny sposób generować obrazy białych mężczyzn pełniących funkcję CEO[86], jeśli został przeszkolony na bazie danych obciążonych stronniczością rasową. Podjęto wiele prób złagodzenia tej stronniczości, np. poprzez zmianę poleceń wejściowych[87] i zmianę wagi danych treningowych[88].
Deepfake
[edytuj | edytuj kod]Deepfake (połączenie słów „deep learning” i „fake”[89][90]) to wygenerowane lub zmanipulowane przez sztuczną inteligencję obrazy, treści dźwiękowe lub treści wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe[91]. Deepfake'i wzbudziły szerokie zainteresowanie i obawy ze względu na ich wykorzystanie do tworzenia pornograficznych filmów z udziałem celebrytów, pornografii zemsty(ang. revenge porn)[92][93], fake newsów, mystyfikacji[94][95], dezinformacji dotyczących zdrowia[96], oszustw finansowych[97] oraz potajemnej zagranicznej ingerencji w wybory[98][99]. W związku z tym zarówno branża sztucznej inteligencji, jak i rząd Stanów Zjednoczonych podjęły działania mające na celu wychwytywanie i ograniczanie takich praktyk[100][101].
Nielegalne treści wizualne
[edytuj | edytuj kod]Powstało wiele stron internetowych, które umożliwiają generowanie przez sztuczną inteligencję obrazów lub filmów o charakterze pornograficznym[102], co zostało wykorzystane do tworzenia nielegalnych treści, takich jak materiały przedstawiające zgwałcenia, wykorzystywanie seksualne dzieci[103][104][105], nekrofilię i zoofilię[106].
Zużycie energii i wpływ na środowisko
[edytuj | edytuj kod]Sztuczna inteligencja ma znaczący ślad węglowy ze względu na rosnące zużycie energii zarówno podczas trenowania, jak i użytkowania[107][108]. Naukowcy i dziennikarze wyrazili obawy dotyczące skutków środowiskowych związanych z opracowywaniem i wykorzystywaniem modeli generatywnych: wysoka emisja CO2[109][110][111], duże zużycie wody słodkiej w centrach danych[112][113] oraz wysokie zużycie energii elektrycznej[110][114][115]. Istnieją również obawy, że wpływ ten może się zwiększyć w miarę włączania tych modeli do powszechnie używanych wyszukiwarek, takich jak Google Search i Bing[114], wraz ze wzrostem popularności chatbotów i innych aplikacji[113][114] oraz koniecznością ponownego trenowania modeli[116].
Uważa się, że ślad węglowy generatywnej sztucznej inteligencji na całym świecie stale rośnie, a jej szacunkowa roczna emisja w 2035 r. wyniesie od 18,21 do 245,94 mln ton CO2[117]. Najwyższe szacunki na rok 2035 są zbliżone do emisji generowanych przez przemysł hodowli bydła w Stanach Zjednoczonych (szacowane obecnie na 257,5 mln ton rocznie według stanu na rok 2024)[118].
Niska jakość generowanych treści
[edytuj | edytuj kod]
AI slop to określenie na masowo generowane przez sztuczną inteligencję treści niskiej jakości, często chaotyczne, bezsensowne i bezcelowe[119][120][121]. New York Times definiuje AI slop jako zjawisko analogiczne do spamu: „badziewne lub niepożądane treści generowane przez sztuczną inteligencję występujące w mediach społecznościowych, sztuce, książkach i... wynikach wyszukiwania”[122]. W dziennikarzach wzbudza niepokój skala generowanych treści niskiej jakości, zwłaszcza w obszarach takich jak: moderowanie treści w mediach społecznościowych[123], korzyści finansowe oferowane przez firmy zajmujące się mediami społecznościowymi za rozpowszechnianie takich treści[123][124], wprowadzające w błąd treści polityczne[124], zasypywanie serwisów naukowych dużą ilością przesyłanych artykułów[125], zwiększony nakład czasu i wysiłku potrzebny do znalezienia w Internecie treści o lepszej jakości lub pożądanych treści[121] i indeksowanie wygenerowanych treści przez wyszukiwarki internetowe[126] – a także ich wpływ na samo dziennikarstwo[127].
W artykule opublikowanym przez naukowców z Amazon Web Services AI Labs stwierdzono, że ponad 57% zdań z puli ponad 6 miliardów zdań pochodzących z Common Crawl, czyli zbioru stron internetowych, zostało przetłumaczonych maszynowo. Jakość wielu z tych automatycznych tłumaczeń uznano za niską, zwłaszcza w przypadku zdań przetłumaczonych na co najmniej trzy języki. Wiele języków o niższych zasobach (np. Wolof, Xhosa) zostało przetłumaczonych na więcej języków niż języki o wyższych zasobach (np. angielski, francuski)[128][129].
Rozpowszechnienie narzędzi opartych na generatywnej sztucznej inteligencji doprowadziło do eksplozji treści generowanych przez AI w wielu dziedzinach. W badaniu przeprowadzonym przez University College London oszacowano, że w 2023 roku przy wsparciu LLM powstało ponad 60 000 artykułów naukowych – ponad 1% wszystkich publikacji[130]. Według Institute for Human-Centered AI na Uniwersytecie Stanforda, około 17,5% nowo opublikowanych artykułów z dziedziny nauk komputerowych i 16,9% recenzowanych tekstów zawiera obecnie treści wygenerowane za pomocą LLM[131]. Przedstawiciele wielu dyscyplin naukowych mają obawy co do wiarygodności treści akademickich generowanych przez sztuczną inteligencję[132].
Podobny trend dotyczy treści wizualnych. Szacuje się, że od czasu uruchomienia DALL-E 2 w 2022 r. generowano średnio 34 miliony obrazów dziennie. W sierpniu 2023 r. wygenerowano ponad 15 miliardów obrazów przy użyciu algorytmów zamiany tekstu na obraz, z czego 80% zostało stworzonych przez modele oparte na Stable Diffusion[133].
Zobacz też
[edytuj | edytuj kod]Przypisy
[edytuj | edytuj kod]- ↑ Erin Griffith: Anthropic Said to Be Closing In on $300 Million in New A.I. Funding. The New York Times, 2023-01-27. [dostęp 2023-03-14]. [zarchiwizowane z tego adresu (2023-12-09)]. (ang.).
- ↑ Andrej Karpathy: Generative models. 2016-06-16. [dostęp 2024-05-27]. [zarchiwizowane z tego adresu (2023-11-17)].
- ↑ Erin Griffith: Anthropic Said to Be Closing In on $300 Million in New A.I. Funding. The New York Times, 2023-01-27. [dostęp 2023-03-14]. [zarchiwizowane z tego adresu (2023-12-09)].
- ↑ June Yang: Google Cloud brings generative AI to developers, businesses, and governments. 2023-03-14. [dostęp 2023-03-15]. [zarchiwizowane z tego adresu (2023-11-17)].
- ↑ Brynjolfsson, Generative AI at Work, 2023 (Working Paper Series), DOI: 10.3386/w31161 [dostęp 2024-01-21] [zarchiwizowane z adresu 2023-03-28].
- ↑ Don’t fear an AI-induced jobs apocalypse just yet. 2023-03-06. [dostęp 2023-03-14]. [zarchiwizowane z tego adresu (2023-11-17)].
- ↑ Jake Coyle: In Hollywood writers’ battle against AI, humans win (for now). AP News, 2023-09-27. [dostęp 2024-01-26]. [zarchiwizowane z tego adresu (2024-04-03)]. (ang.).
- ↑ H. Harreis: Generative AI: Unlocking the future of fashion. [dostęp 2023-03-14]. [zarchiwizowane z tego adresu (2023-11-17)]. (ang.).
- ↑ Tojin T. Eapen, Daniel J. Finkenstadt, Josh Folk, Lokesh Venkataswamy, How Generative AI Can Augment Human Creativity, „Harvard Business Review”, 1 lipca 2023, ISSN 0017-8012 [dostęp 2025-09-29] (ang.).
- ↑ a b AI has an environmental problem. Here’s what the world can do about that. [online], unep.org, 21 września 2024 [dostęp 2025-09-29] (ang.).
- ↑ Justin Hendrix: Transcript: Senate Judiciary Subcommittee Hearing on Oversight of AI. techpolicy.press, 2023-05-16. [dostęp 2023-05-19]. [zarchiwizowane z tego adresu (2023-11-17)]. (ang.).
- ↑ Felix M. Simon. Misinformation reloaded? Fears about the impact of generative AI on misinformation are overblown. „Harvard Kennedy School Misinformation Review”, 2023-10-18. DOI: 10.37016/mr-2020-127. [zarchiwizowane z adresu]. (ang.).
- ↑ Justin Hendrix, Transcript: Senate Judiciary Subcommittee Hearing on Oversight of AI | TechPolicy.Press [online], Tech Policy Press, 16 maja 2023 [dostęp 2025-09-29] (ang.).
- ↑ New AI systems collide with copyright law, „BBC News”, 31 lipca 2023 [dostęp 2025-09-29] (ang.).
- ↑ New Scientist Technology Blog: A programmable robot from 60 AD [online], web.archive.org, 12 stycznia 2017 [dostęp 2025-04-19] [zarchiwizowane z adresu 2017-01-12].
- ↑ Gerard Brett, The Automata in the Byzantine "Throne of Solomon", „Speculum”, 29 (3), 1954, s. 477–487, DOI: 10.2307/2846790, ISSN 0038-7134, JSTOR: 2846790 [dostęp 2025-04-19].
- ↑ Prof. Charles Grinstead, Prof. Laurie Snell, Introduction to Probability, American Mathematical Society, 1997 [dostęp 2025-04-19].
- ↑ Pierre Bremaud, Markov Chains: Gibbs Fields, Monte Carlo Simulation, and Queues, Springer Science & Business Media, 9 marca 2013, ISBN 978-1-4757-3124-8 [dostęp 2025-04-19] (ang.).
- ↑ First Links in the Markov Chain [online], American Scientist, 6 lutego 2017 [dostęp 2025-04-19] (ang.).
- ↑ Shai Fine, Yoram Singer, Naftali Tishby, The Hierarchical Hidden Markov Model: Analysis and Applications, „Machine Learning”, 32 (1), 1998, s. 41–62, DOI: 10.1023/A:1007469218079, ISSN 1573-0565 [dostęp 2025-04-19] (ang.).
- ↑ Nathan Bergen, Angela Huang, A Brief History of Generative AI, 2023, s. 4 [dostęp 2025-04-21] (ang.).
- ↑ (PDF) Computer Aided Process Planning: The State-of-the-Art Survey,” [online], ResearchGate [dostęp 2025-04-19] [zarchiwizowane z adresu 2025-03-06] (ang.).
- ↑ S. Chien, B. Smith, G. Rabideau, N. Muscettola, K. Rajan, Automated planning and scheduling for goal-based autonomous spacecraft, „IEEE Intelligent Systems and their Applications”, 13 (5), 1998, s. 50–55, DOI: 10.1109/5254.722362, ISSN 2374-9423 [dostęp 2025-04-19].
- ↑ Thomas D. Garvey Northrup Fowler IlI, Overview: ARPA-Rome Laboratory Knowledge-Based Planning and Scheduling Initiative (ARPI) [online], AAAI [dostęp 2025-04-19] (ang.).
- ↑ Computer Aided Process Planning: The State-of-the-Art Survey, 1989.
- ↑ Barney Pell i inni, An Autonomous Spacecraft Agent Prototype, „Autonomous Robots”, 5 (1), 1998, s. 29–52, DOI: 10.1023/A:1008860925034, ISSN 1573-7527 [dostęp 2025-04-21] (ang.).
- ↑ Andrew Ng, Michael Jordan, On Discriminative vs. Generative Classifiers: A comparison of logistic regression and naive Bayes, „Advances in Neural Information Processing Systems”, 14, MIT Press, 2001 [dostęp 2025-04-19].
- ↑ Tony Jebara, Machine Learning. Discriminative and generative, Springer Link, 2004, DOI: 10.1007/978-1-4419-9011-2 [dostęp 2025-04-19] (ang.).
- ↑ Research Blog: DeepDream – a code example for visualizing Neural Networks [online], web.archive.org, 8 lipca 2015 [dostęp 2025-04-19] [zarchiwizowane z adresu 2015-07-08].
- ↑ Yihan Cao i inni, A Comprehensive Survey of AI-Generated Content (AIGC): A History of Generative AI from GAN to ChatGPT, „arXiv”, 2023, DOI: 10.48550/arXiv.2303.04226, arXiv:2303.04226 [dostęp 2025-04-19].
- ↑ Language Models are Unsupervised Multitask Learners, OpenAI, 2021 [zarchiwizowane 2021-02-06].
- ↑ Improving language understanding with unsupervised learning [online], openai.com, 14 lutego 2024 [dostęp 2025-04-19] (ang.).
- ↑ Rionaldi Chandraseta, Generate Your Favourite Characters' Voice Lines using Machine Learning [online], Towards Data Science, 21 stycznia 2021 [dostęp 2025-04-19] (ang.).
- ↑ OpenAI’s DALL-E creates plausible images of literally anything you ask it to – TechCrunch [online], web.archive.org, 6 stycznia 2021 [dostęp 2025-04-19] [zarchiwizowane z adresu 2021-01-06].
- ↑ Midjourney Legacy Model Versions [online], web.archive.org, 26 września 2023 [dostęp 2025-04-19] [zarchiwizowane z adresu 2023-09-26].
- ↑ Stable Diffusion Public Release [online], Stability AI [dostęp 2025-04-19] (ang.).
- ↑ Introducing ChatGPT [online], openai.com, 13 marca 2024 [dostęp 2025-04-19] (ang.).
- ↑ Ars Contributors, How ChatGPT turned generative AI into an “anything tool” [online], Ars Technica, 23 sierpnia 2023 [dostęp 2025-04-19] (ang.).
- ↑ Miles Kruppa, Google Announces AI System Gemini After Turmoil at Rival OpenAI [online], WSJ [dostęp 2025-04-19] (ang.).
- ↑ Benj Edwards, Google launches Gemini—a powerful AI model it says can surpass GPT-4 [online], Ars Technica, 6 grudnia 2023 [dostęp 2025-06-29] (ang.).
- ↑ Cade Metz, Google Releases Gemini, an A.I.-Driven Chatbot and Voice Assistant, „The New York Times”, 8 lutego 2024, ISSN 0362-4331 [dostęp 2025-06-29] (ang.).
- ↑ Introducing the next generation of Claude [online], anthropic.com [dostęp 2025-06-29] (ang.).
- ↑ Michael Nuñez, Anthropic unveils Claude 3, surpassing GPT-4 and Gemini Ultra in benchmark tests [online], VentureBeat, 4 marca 2024 [dostęp 2025-04-19] (ang.).
- ↑ David Pierce, Anthropic has a fast new AI model – and a clever new way to interact with chatbots [online], The Verge, 20 czerwca 2024 [dostęp 2025-06-29] (ang.).
- ↑ Sharon Goldman, DeepSeek dropped an open-source AI bomb—what does it mean for OpenAI and Anthropic? [online], Fortune [dostęp 2025-04-19] (ang.).
- ↑ Mark Chen i inni, Evaluating Large Language Models Trained on Code, arXiv, 14 lipca 2021, DOI: 10.48550/arXiv.2107.03374 [dostęp 2025-06-28].
- ↑ Ziv Epstein i inni, Art and the science of generative AI: A deeper dive, arXiv, 7 czerwca 2023, DOI: 10.48550/arXiv.2306.04141 [dostęp 2025-06-28].
- ↑ OpenAI Unveils A.I. That Instantly Generates Eye-Popping Videos [online], 15 lutego 2024 [dostęp 2025-07-09] [zarchiwizowane z adresu 2024-02-15] (ang.).
- ↑ Instant Videos Could Represent the Next Leap in A.I. Technology [online], 4 kwietnia 2023 [dostęp 2025-07-09] [zarchiwizowane z adresu 2023-04-05] (ang.).
- ↑ Facebook Parent Meta's AI Tool Can Create Artsy Videos From Text, „CNET” [dostęp 2025-07-09] [zarchiwizowane z adresu 2023-04-05] (ang.).
- ↑ UniPi: Learning universal policies via text-guided video generation [online], ai.googleblog.com [dostęp 2025-07-09] [zarchiwizowane z adresu 2023-05-24] (ang.).
- ↑ Anthony Brohan i inni, RT-2: Vision-Language-Action Models Transfer Web Knowledge to Robotic Control, arXiv, 28 lipca 2023, DOI: 10.48550/arXiv.2307.15818 [dostęp 2025-07-09].
- ↑ Sam Sabin, GitHub taps generative AI to help coders keep security flaws out of their projects [online], Axios, 30 czerwca 2023 [dostęp 2025-04-19] (ang.).
- ↑ Jonathan Vanian, Microsoft adds OpenAI technology to Word and Excel [online], CNBC, 16 marca 2023 [dostęp 2025-04-19] (ang.).
- ↑ Les Pounder, How To Create Your Own AI Chatbot Server With Raspberry Pi 4 [online], Tom's Hardware, 25 marca 2023 [dostęp 2025-04-19] (ang.).
- ↑ Llama 2 and Llama 3.1 Hardware Requirements: GPU, CPU, RAM [online], Hardware Corner [dostęp 2025-04-19] (ang.).
- ↑ Emil Sayegh, The Billion-Dollar AI Gamble: Data Centers As The New High-Stakes Game [online], Forbes [dostęp 2025-04-19] (ang.).
- ↑ China built hundreds of AI data centers to catch the AI boom. Now many stand unused. [online], MIT Technology Review [dostęp 2025-04-19] (ang.).
- ↑ Adam Jadczak, UE uruchamia inicjatywę InvestAI wartą nawet 200 mld euro [online], ITwiz, 11 lutego 2025 [dostęp 2025-04-21].
- ↑ Jonathan Vanian, Mark Zuckerberg indicates Meta is spending billions of dollars on Nvidia AI chips [online], CNBC, 18 stycznia 2024 [dostęp 2025-04-19] (ang.).
- ↑ Anton Shilov, Nvidia's Chinese A800 GPU's Performance Revealed [online], Tom's Hardware, 7 maja 2023 [dostęp 2025-04-19] (ang.).
- ↑ Nvidia tweaks flagship H100 chip for export to China as H800 | Reuters [online], web.archive.org, 22 listopada 2023 [dostęp 2025-04-19] [zarchiwizowane z adresu 2023-11-22].
- ↑ How China’s Biren Is Attempting To Evade US Sanctions [online], SemiAnalysis, 24 października 2022 [dostęp 2025-04-19] (ang.).
- ↑ Kif Leswing, U.S. curbs export of more AI chips, including Nvidia H800, to China [online], CNBC, 17 października 2023 [dostęp 2025-04-19] (ang.).
- ↑ Here are the chips that Nvidia can sell to China [online], Quartz, 27 marca 2025 [dostęp 2025-04-19] (ang.).
- ↑ USA nakładają kolejne blokady na sprzedaż układów Nvidia do Chin. Firma straci miliardy [online], pb.pl, 22 kwietnia 2025 [dostęp 2025-04-22].
- ↑ Pożegnalny "prezent" Joe Bidena uderzy w Polskę. Może spowolnić rozwój AI [online], INNPoland.pl [dostęp 2025-04-19] (pol.).
- ↑ Maciej Szostak, USA nakładają limity m.in. na Polskę – AI nie dla każdego [online], Obserwator Gospodarczy, 15 stycznia 2025 [dostęp 2025-04-19].
- ↑ Europa ma duży problem. Sztuczna Inteligencja? Tak, ale na zasadach USA [online], Spider's Web, 6 czerwca 2025 [dostęp 2025-06-08].
- ↑ Trump ogłasza projekt Stargate. 500 mld dolarów na sztuczną inteligencję w USA [online], Parkiet [dostęp 2025-04-19].
- ↑ UE ma zmobilizować 200 mld euro na inwestycje w AI – szefowa KE [online] [dostęp 2025-04-21].
- ↑ Elaheh Jafarigol, Theodore B. Trafalis, Federated Learning with GANs-based Synthetic Minority Over-sampling Technique for Improving Weather Prediction from Imbalanced Data, 5 maja 2023, DOI: 10.21203/rs.3.rs-2880376/v1 [dostęp 2025-06-28].
- ↑ Ian J. Goodfellow i inni, Generative Adversarial Networks, arXiv, 10 czerwca 2014, DOI: 10.48550/arXiv.1406.2661 [dostęp 2025-06-28].
- ↑ Diederik P. Kingma, Max Welling, An Introduction to Variational Autoencoders, arXiv, 11 grudnia 2019, DOI: 10.48550/arXiv.1906.02691 [dostęp 2025-06-28].
- ↑ RNN vs. CNN: Which Neural Network Is Right for Your Project? [online], Springboard Blog, 27 października 2021 [dostęp 2025-06-28] (ang.).
- ↑ EU AI Act: first regulation on artificial intelligence [online], Topics | European Parliament, 6 sierpnia 2023 [dostęp 2025-06-15] (ang.).
- ↑ Foo Yun Chee, Supantha Mukherjee, Foo Yun Chee, Supantha Mukherjee, EU lawmakers vote for tougher AI rules as draft moves to final stage, „Reuters”, 14 czerwca 2023 [dostęp 2025-06-15] (ang.).
- ↑ Simmone Shah, The Writers Strike Is Taking a Stand on AI [online], TIME, 4 maja 2023 [dostęp 2025-06-14] (ang.).
- ↑ Justin Lambert, Lessons and Warnings from the Original Chatbot – ELIZA [online], Cprime, 25 lipca 2023 [dostęp 2025-06-14] (ang.).
- ↑ AI is already taking video game illustrators’ jobs in China [online], Rest of World, 11 kwietnia 2023 [dostęp 2025-06-14] (ang.).
- ↑ China's game art industry reportedly decimated by growing AI use [online], gamedeveloper.com [dostęp 2025-06-14] (ang.).
- ↑ Actors vs. AI: Strike brings focus to emerging use of advanced tech [online], NBC News, 14 lipca 2023 [dostęp 2025-06-14] (ang.).
- ↑ Kyle Wiggers, ElevenLabs' voice-generating tools launch out of beta [online], TechCrunch, 22 sierpnia 2023 [dostęp 2025-06-14] (ang.).
- ↑ Rashi Shrivastava, ‘Keep Your Paws Off My Voice’: Voice Actors Worry Generative AI Will Steal Their Livelihoods [online], Forbes [dostęp 2025-06-14] (ang.).
- ↑ Large language models are biased. Can logic help save them? [online], MIT News | Massachusetts Institute of Technology, 3 marca 2023 [dostęp 2025-06-14] (ang.).
- ↑ Reducing bias and improving safety in DALL·E 2 [online], openai.com, 13 marca 2024 [dostęp 2025-06-14] (ang.).
- ↑ No quick fix: How OpenAI's DALL·E 2 illustrated the challenges of bias in AI [online], NBC News, 27 lipca 2022 [dostęp 2025-06-14] (ang.).
- ↑ DALL·E 2 pre-training mitigations [online], openai.com, 16 stycznia 2024 [dostęp 2025-06-14] (ang.).
- ↑ Deepfake – co to jest i dlaczego stanowi zagrożenie? | Akademia Leona Koźminskiego Warszawa [online], kozminski.edu.pl [dostęp 2025-06-14].
- ↑ John Brandon, Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise [online], Fox News, 16 lutego 2018 [dostęp 2025-06-14] (ang.).
- ↑ Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) (Tekst mający znaczenie dla EOG) [online], 13 czerwca 2024 [dostęp 2025-06-14].
- ↑ We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now [online], VICE, 24 stycznia 2018 [dostęp 2025-06-14] (ang.).
- ↑ Op-Ed | Deepfakes & Why the Future of Porn is Terrifying [online], Highsnobiety, 14 lutego 2018 [dostęp 2025-06-14] (ang.).
- ↑ Jon Christian, Experts fear face swapping tech could start an international showdown [online], The Outline [dostęp 2025-06-14] (ang.).
- ↑ Kevin Roose, Here Come the Fake Videos, Too, „The New York Times”, 5 marca 2018, ISSN 0362-4331 [dostęp 2025-06-14] (ang.).
- ↑ Bradley D. Menz, Natansh D. Modi, Michael J. Sorich, Ashley M. Hopkins, Health Disinformation Use Case Highlighting the Urgent Need for Artificial Intelligence Vigilance: Weapons of Mass Disinformation, „JAMA Internal Medicine”, 184 (1), 2024, s. 92–96, DOI: 10.1001/jamainternmed.2023.5947, ISSN 2168-6106 [dostęp 2025-06-14].
- ↑ Marco Schreyer, Timur Sattarov, Bernd Reimer, Damian Borth, Adversarial Learning of Deepfakes in Accounting, „arXiv”, 2019, DOI: 10.48550/arXiv.1910.03810, arXiv:1910.03810 [dostęp 2025-06-14].
- ↑ U.S. braces for foreign interference in 2024 election [online] [dostęp 2025-06-14] [zarchiwizowane z adresu 2025-05-13] (ang.).
- ↑ Russia, Iran and China are using AI in election interference efforts, U.S. intelligence officials say [online], NBC News, 24 września 2024 [dostęp 2025-06-14] (ang.).
- ↑ Brian Dolhansky i inni, The DeepFake Detection Challenge (DFDC) Dataset, „arXiv”, 2020, DOI: 10.48550/arXiv.2006.07397, arXiv:2006.07397 [dostęp 2025-06-14].
- ↑ Yvette D. [D-NY-9 Rep. Clarke, H.R.3230 – 116th Congress (2019–2020): DEEP FAKES Accountability Act [online], congress.gov, 28 czerwca 2019 [dostęp 2025-06-14].
- ↑ Peter Alilunas, What we must be: AI and the future of porn studies, „Porn Studies”, 11 (1), 2024, s. 99–112, DOI: 10.1080/23268743.2024.2312181, ISSN 2326-8743 [dostęp 2025-06-14].
- ↑ How AI is being abused to create child sexual abuse material (CSAM) online [online], iwf.org.uk [dostęp 2025-06-14] (ang.).
- ↑ Ban AI apps creating naked images of children, says children’s commissioner [online], bbc.com, 28 kwietnia 2025 [dostęp 2025-06-14] (ang.).
- ↑ Wayne Unger, Legal fight against AI-generated child pornography is complicated – a legal scholar explains why, and how the law could catch up [online], The Conversation, 11 lutego 2025 [dostęp 2025-06-14] (ang.).
- ↑ Madhumita Murgia, Code Dependent: How AI Is Changing Our Lives – Shortlisted for the Women’s Prize for Non-Fiction, Pan Macmillan, 21 marca 2024, ISBN 978-1-5290-9733-7 [dostęp 2025-06-14] (ang.).
- ↑ Rob Toews, Deep Learning’s Carbon Emissions Problem [online], Forbes [dostęp 2025-06-14] (ang.).
- ↑ AI’s carbon footprint is bigger than you think [online], MIT Technology Review [dostęp 2025-06-14] (ang.).
- ↑ Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell, On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜, „Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency”, FAccT '21, New York, NY, USA: Association for Computing Machinery, 2021, s. 610–623, DOI: 10.1145/3442188.3445922, ISBN 978-1-4503-8309-7 [dostęp 2025-06-14].
- ↑ a b Casey Crownhartarchive, AI is an energy hog. This is what it means for climate change. [online], MIT Technology Review [dostęp 2025-06-14] [zarchiwizowane z adresu 2024-08-20] (ang.).
- ↑ Payal Dhar, The carbon impact of artificial intelligence – Nature Machine Intelligence, „Nature”, 2020, DOI: 10.1038/s42256-020-0219-9 [dostęp 2025-06-14] [zarchiwizowane z adresu 2024-08-14] (ang.).
- ↑ Kate Crawford, Generative AI’s environmental costs are soaring – and mostly secret, „Nature”, 626 (8000), 2024, s. 693–693, DOI: 10.1038/d41586-024-00478-x, ISSN 0028-0836 [dostęp 2025-06-14] [zarchiwizowane z adresu 2024-08-22] (ang.).
- ↑ a b Condé Nast, AI's Energy Demands Are Out of Control. Welcome to the Internet's Hyper-Consumption Era, „WIRED”, 11 lipca 2024 [dostęp 2025-06-14] [zarchiwizowane z adresu 2024-08-14] (ang.).
- ↑ a b c Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, „The Conversation” [dostęp 2025-06-14] [zarchiwizowane z adresu 2024-07-01] (ang.).
- ↑ Will A.I. Ruin the Planet or Save the Planet? [online], 26 sierpnia 2024 [dostęp 2025-06-14] [zarchiwizowane z adresu 2024-08-26] (ang.).
- ↑ Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, „The Conversation” [dostęp 2025-06-14] [zarchiwizowane z adresu 2024-07-01] (ang.).
- ↑ Zhaohao Ding i inni, Tracking the carbon footprint of global generative artificial intelligence, „Innovation (Cambridge (Mass.))”, 6 (5), 2025, s. 100866, DOI: 10.1016/j.xinn.2025.100866, ISSN 2666-6758, PMID: 40432776, PMCID: PMC12105502 [dostęp 2025-06-14].
- ↑ Rylie E.O. Pelton i inni, Greenhouse gas emissions in US beef production can be reduced by up to 30% with the adoption of selected mitigation measures, „Nature Food”, 5 (9), 2024, s. 787–797, DOI: 10.1038/s43016-024-01031-9, ISSN 2662-1355, PMID: 39215094, PMCID: PMC11420059 [dostęp 2025-06-14].
- ↑ Od krewetkowego Jezusa i chałkonia, po polityczną dezinformację. Tak AI Slop zalewa internet [online], INNPoland.pl [dostęp 2025-06-14] (pol.).
- ↑ Czym są AI slopy i boomertrapy – jak je rozpoznać? Wyjaśniamy [online], Spider's Web, 20 lipca 2024 [dostęp 2025-06-14].
- ↑ a b Alex Hern, Dan Milmo, Spam, junk … slop? The latest wave of AI behind the ‘zombie internet’, „The Guardian”, 19 maja 2024, ISSN 0261-3077 [dostęp 2025-06-14] (ang.).
- ↑ First Came ‘Spam.’ Now, With A.I., We’ve Got ‘Slop’ [online], 11 czerwca 2024 [dostęp 2025-06-14] [zarchiwizowane z adresu 2024-08-26] (ang.).
- ↑ a b Investigation Finds Actual Source of All That AI Slop on Facebook, „Futurism” [dostęp 2025-06-14] [zarchiwizowane z adresu 2024-08-15] (ang.).
- ↑ a b Charlie Warzel, The MAGA Aesthetic Is AI Slop, „The Atlantic” [dostęp 2025-06-14] [zarchiwizowane z adresu 2024-08-25] (ang.).
- ↑ Research AI model unexpectedly attempts to modify its own code to extend runtime, „Ars Technica”, 14 sierpnia 2024 [dostęp 2025-06-14] [zarchiwizowane z adresu 2024-08-24] (ang.).
- ↑ Joseph Cox, Google News Is Boosting Garbage AI-Generated Articles, „404 Media”, 18 stycznia 2024 [dostęp 2025-06-14] [zarchiwizowane z adresu 2024-06-13] (ang.).
- ↑ Beloved Local Newspapers Fired Staffers, Then Started Running AI Slop, „Futurism” [dostęp 2025-06-14] [zarchiwizowane z adresu 2024-08-12] (ang.).
- ↑ Brian Thompson, Mehak Dhaliwal, Peter Frisch, Tobias Domhan, Marcello Federico, A Shocking Amount of the Web is Machine Translated: Insights from Multi-Way Parallelism, Lun-Wei Ku, Andre Martins, Vivek Srikumar (red.), „Findings of the Association for Computational Linguistics: ACL 2024”, Bangkok, Thailand: Association for Computational Linguistics, 2024, s. 1763–1775, DOI: 10.18653/v1/2024.findings-acl.103 [dostęp 2025-06-14].
- ↑ A ‘Shocking’ Amount of the Web Is Already AI-Translated Trash, Scientists Determine [online], vice.com [dostęp 2025-06-14] [zarchiwizowane z adresu 2024-07-01] (ang.).
- ↑ Andrew Gray, ChatGPT "contamination": estimating the prevalence of LLMs in the scholarly literature, „arXiv”, 2024, DOI: 10.48550/arXiv.2403.16887, arXiv:2403.16887 [dostęp 2025-06-14].
- ↑ How Much Research Is Being Written by Large Language Models? | Stanford HAI [online], hai.stanford.edu [dostęp 2025-06-14] (ang.).
- ↑ Peter J. Cobb, Large Language Models and Generative AI, Oh My!: Archaeology in the Time of ChatGPT, Midjourney, and Beyond, „Advances in Archaeological Practice”, 11 (3), 2023, s. 363–369, DOI: 10.1017/aap.2023.20, ISSN 2326-3768 [dostęp 2025-06-14] (ang.).
- ↑ AI Image Statistics for 2024: How Much Content Was Created by AI [online], 15 sierpnia 2023 [dostęp 2025-06-14] (ang.).