Halucynacja (sztuczna inteligencja)
Halucynacja, sztuczna halucynacja[1] – odpowiedź generowana przez sztuczną inteligencję, która zawiera fałszywe lub wprowadzające w błąd informacje przedstawione jako fakty[2][3]. Termin ten nawiązuje do psychologii człowieka, gdzie halucynacje zazwyczaj wiążą się z fałszywymi spostrzeżeniami. Istnieje jednak zasadnicza różnica między sztucznymi halucynacjami a halucynacjami w sensie medycznym: halucynacje związane ze sztuczną inteligencją wiążą się z błędnie skonstruowanymi odpowiedziami, a nie doświadczeniami percepcyjnymi[3].
Chatboty oparte na dużych modelach językowych, jak ChatGPT, mogą umieszczać w generowanej treści losowe, brzmiące wiarygodnie zdania. Szacuje się, że w 2023 r. chatboty halucynowały nawet w 27% przypadków[4], a błędy rzeczowe występowały w 46% generowanych tekstów[5].
Przypisy
[edytuj | edytuj kod]- ↑ Halucynacje chatbotów a prawda: główne nurty debaty i ich interpretacje, „Roczniki Nauk Społecznych”, 52 (1), 2024, s. 165–185, ISSN 0137-4176 [dostęp 2025-04-14] (pol.).
- ↑ Joshua Maynez i inni, On Faithfulness and Factuality in Abstractive Summarization, arXiv, 2 maja 2020, DOI: 10.48550/arXiv.2005.00661 [dostęp 2025-04-14] .
- ↑ a b Survey of Hallucination in Natural Language Generation | ACM Computing Surveys, web.archive.org, 26 marca 2023, DOI: 10.1145/3571730 [dostęp 2025-04-14] [zarchiwizowane z adresu 2023-03-26] .
- ↑ Chatbots May ‘Hallucinate’ More Often Than Many Realize - The New York Times [online], web.archive.org, 7 grudnia 2023 [dostęp 2025-04-14] [zarchiwizowane z adresu 2023-12-07] .
- ↑ Adrian de Wynter i inni, An evaluation on large language model outputs: Discourse and memorization, „Natural Language Processing Journal”, 4, 2023, s. 100024, DOI: 10.1016/j.nlp.2023.100024, ISSN 2949-7191 [dostęp 2025-04-14] .