Dyskusja Wikipedii:Zalecenia dotyczące zastosowania sztucznej inteligencji w polskiej Wikipedii

Treść strony nie jest dostępna w innych językach.
Z Wikipedii, wolnej encyklopedii

Dyskusja[edytuj kod]

Czy tego typu zalecenia są nam na pewno potrzebne? ChatGPT jest oparty na wprowadzaniu promptów. Żeby wprowadzić odpowiedź AI na Wikipedię to trzeba ją skopiować. Autor jest odpowiedzialny za edycję – czyli nie powinno mieć znaczenia w jaki sposób autor otrzymał wprowadzony przez siebie kod źródłowy. Jeśli wygenerowany przez AI tekst jest błędny i jest wprowadzony na WP, to i tak edytor jest odpowiedzialny za edycję. Podobnie jak w przypadku autotranslatora. IMO ten aspekt należy podkreślić. Przy okazji (bo może padnie ten temat): zastanawiałem się, czy kopiowanie odpowiedzi z ChatGPT nie narusza PA, ale ich warunki użytkowania stanowią, że można dowolnie wykorzystywać wszystko co wygeneruje AI (link). Pozdrawiam, tufor (dyskusja) 20:20, 21 mar 2023 (CET)[odpowiedz]

  • Myślę, że użycie AI nie wymaga odrębnych zasad. Kiepski tekst niezależnie od tego czy napisał człowiek czy bot tak samo powinien wylecieć. Strona powinna być raczej stroną pomocy która tłumaczy nowym że to kiepski pomysł zwłaszcza, że GPT jest modelem językowym czyli nie sprawdza faktów w żadnej bazie danych. Marek Mazurkiewicz (dyskusja) 22:11, 21 mar 2023 (CET)[odpowiedz]
    No to jest tak jak z używaniem Google Translate. Co do zasady wszelkie tłumacze automatyczne to jest SI i to dosyć zaawansowane, i za pewne są to również sieci neuronowe, być może te tzw. głębokie sieci neuronowe (swoją drogą artykuł do poprawy 😉). Zastosowanie auto-tłumaczy jest nie tylko dozwolone, ale jest wspierane przez Mediawiki [1].
    Druga sprawa, to zakazanie używania SI do wyszukiwania źródeł. No to z jednej strony nierealne (tego to już się nie da sprawdzić moim zdaniem). Z drugiej strony to by było w praktyce również zakazanie stosowania wyszukiwarek internetowych (jestem niemal pewien, że Google używa różnych form SI do tworzenia swoich baz danych i analizy zapytań, a Microsoft mówi wprost, że Bing ma podłączone GPT [2]).
    Tak że to trochę trzeba uważać co byśmy chcieli zakazywać 🙂. Za pewne większość Wikipedystów używa SI (także tych głębszych) nawet nie do końca zdając sobie z tego sprawy. Nux (dyskusja) 01:52, 22 mar 2023 (CET)[odpowiedz]
  • Moim zdaniem egzekwowanie zakazów stosowania sztucznej inteligencji jest nierealne, oraz, jak słusznie zauważył Nux, w ogóle nie potrafilibyśmy bez nich działać, bo to nie tylko ChatGPT. Ostatecznie oceniamy jakość powstałego tekstu i, jeśli nie łamie praw autorskich, to nic nam do tego, jakich metod użył wprowadzający go edytor, by go uzyskać. Oczywiście użycie SI do napisania kawałka tekstu i wgranie go do Wikipedii może się okazać problematyczne z punktu widzenia praw autorskich. Prawa autorskie majątkowe załatwia zgoda na wszelkie wykorzystanie, ale pozostają prawa osobiste. A tu doktryny na razie nie ma i trudno przewidzieć, w którą stronę się to rozwinie (patrz np. [3]). Na razie chyba domniemujemy, że edytor wgrywający tekst na Wikipedię ma do niego prawa osobiste, a tymczasem może wgrywać tekst w ogóle nie chroniony prawem autorskim, bo stworzony przez maszynę. Gżdacz (dyskusja) 20:53, 22 mar 2023 (CET)[odpowiedz]
To powinna być raczej strona pomocy w stylu jak korzystać, aby artykuł nie trafił po 5 minutach do kosza, a nie jakiekolwiek zasady czy zalecenia dot. zakazywania korzystania z czegoś. Nie da się zakazać używania jakiegokolwiek narzędzia po stronie autora tekstu, nie mamy zresztą ani realnej możliwości egzekwowania takich zakazów, ani też formalnych uprawnień do tego. Jeżli już cokolwiek w tym względzie zamierza się działać, to przede wszystkim wytłumaczyć na takiej stronie pomocy, na co należy zwrócić szczególną uwagę po użyciu narzędzia, co należy zweryfikować, ew. że konieczne jest oznaczenie takiego artykułu jakimś szablonem w dyskusji czy coś (aby ułatwić wyszukanie takich artykułów i uczulić innych użytkowników, że większość pracy wykonała maszyna). Wostr (dyskusja) 21:20, 22 mar 2023 (CET)[odpowiedz]
Wykrywanie przez nas (w sensie pojedynczych Wikipedystów) jest moim zdaniem niemożliwe. Być może Fundacja mogłaby podłączyć coś co będzie flagować edycje jako podejrzane. Dla porządku dodam, że Stackoverflow wprowadziło zakaz publikowania odpowiedzi z ChatGPT. Aczkolwiek moim zdaniem ich sytuacja jest inna. Tam wrzucenie odpowiedzi z chata powodowało realne, masowe problemy.
Natomiast jak najbardziej popieram pomysł stworzenia poradnika. Osobiście ostatnio eksperymentuję sobie z wyciąganiem streszczeń z artykułów naukowych. Jak na razie wyniki są dobre, zresztą ChatGPT ma dobrą opinię w tym zakresie. Dobrze wyciągnął sens i upraszcza pracę. Jak się poprosi, to z angielskiego zrobi streszczenie po polsku. Można łatwiej ocenić, czy dany artykuł zawiera to czego się szuka. Problem tylko w tym, że trzeba znać temat, żeby ocenić, czy to co napisało GPT ma sens. Nux (dyskusja) 23:18, 22 mar 2023 (CET)[odpowiedz]
No i trzeba oryginalny artykuł samemu przeczytać, żeby wiedzieć, że to trafne streszczenie. Gżdacz (dyskusja) 05:42, 23 mar 2023 (CET)[odpowiedz]
  • Tak jak Gżdacz, Marek i Wostr. Zalecenia "zakazujące" jakiegoś działania, lub jakieś działanie "dopuszczające", mają o tyle sens jeżeli są weryfikowalne z poziomu samej Wikipedii przez aktywnych edytorów. Brak realnej możliwości wykazania naruszenia zalecenia powoduje, że będą one martwe. Jako ewentualnie strona pomocy, owszem, jako wskazująca na zagrożenia, ale nie napisana językiem "zakazu" i "dopuszczenia". Ented (dyskusja) 00:39, 28 mar 2023 (CEST)[odpowiedz]

Sytuacja prawna -- prawa autorskie[edytuj kod]

Jest stanowisko teamu prawnego:

Given the current discussion that ChatGPT and other AI platforms may be trained on content from the Wikimedia projects, including Wikipedia articles and free culture images, and may be used to generate works, it becomes critical to understand the many possible legal ramifications. So far, all possibilities remain open, as key cases about AI and copyright remain unresolved. However, separating and understanding both the output and the input questions is perhaps the first step toward defining the future of AI works. In other words, it is crucial to define if it is possible to copyright what an AI model creates and if it is possible to use copyright-protected data to train AI models. We encourage the Wikimedia communities to consider these topics when reviewing AI works on the projects and considering new policies for how to use these tools.

z meta:Wikilegal/Copyright Analysis of ChatGPT

Kpjas (∵ ✍) 16:33, 23 mar 2023 (CET)[odpowiedz]

Generatywne SI vs uczelnie[edytuj kod]

Niedawno pojawiło się zarządzenie rektora UG na podstawie ustaleń Komisji ds. związanych z wykorzystywaniem w Uniwersytecie Gdańskim narzędzi sztucznej inteligencji (AI), a w nim między innymi takie rekomendacje dla studentów i pracowników:

1) Uczelnia gwarantuje otwartość naukową, ale także dydaktyczną na nowoczesne narzędzia informatyczne. Swoboda w korzystaniu z różnych narzędzi informatycznych, w tym takich jak generatory treści wpisuje się w otwartość naukową nauki i dydaktyki.

2) Uczelnia zaleca krytyczne podejście do źródeł internetowych, a także wiedzy pozyskanej z generatorów treści z niezweryfikowanych baz wiedzy, wykorzystywanych w procesie badawczym oraz dydaktycznym. Konieczne jest doskonalenie wśród badaczy, dydaktyków, studentów i doktorantów umiejętności samodzielnego, krytycznego myślenia oraz weryfikacji źródeł informacji.

[...]

7) Treść wygenerowana przez generatory treści, niezależnie czy jest to tekst, algorytm, oprogramowanie, czy obraz bądź muzyka, nie uznaje się za autorstwo studenta, doktoranta, pracownika naukowego itd., który użył tego narzędzia. Dla poprawności naukowej czy dydaktycznej należy podawać źródło ich wygenerowania.

Rekomendacje oraz samo zarządzenie. Nux (dyskusja) 13:06, 31 sie 2023 (CEST)[odpowiedz]