Sztuczna inteligencja a Jednolity System Antyplagiatowy

Sztuczna inteligencja

Sztuczna inteligencja – SI (ang. artificial intelligence, AI) jest to inteligencja, którą ujawniają urządzenia, jest to zdolność maszyn do zastosowania umiejętności ludzkich – dedukcji, nauki, planistyki i tworzenia kreatywnych rozwiązań. W naukach informatycznych pojęcie SI używane jest także w procesie tworzenia programów, których zadaniem jest chociażby fragmentaryczna symulacja zachowań inteligentnych. Innymi słowy sztuczna inteligencja to naśladowanie przez systemy lub maszyny mechanizmów tożsamych z inteligencją przejawianą przez ludzką jednostkę (identyfikacja obrazów, rozumienie języka).

W kontekście zastosowania sztuczną inteligencję poddaje się dwojakiej typologii i tak wyodrębnia się:

  • SI słabo zaawansowaną,
  • silną SI.

Słabsza sztuczna inteligencja znajduje zastosowanie w przypadku konkretnego zadania. Natomiast SI silnie zaawansowaną wyróżnia autonomiczność działania, co przede wszystkim oznacza, iż samodzielnie wykonuje pewne czynności, działając poniekąd samodzielnie, podobnie jak robi to człowiek.

Ze względu na swoją postać SI może występować w dwojakiej formie:

  • jako oprogramowanie,
  • w postaci zmaterializowanej (roboty, drony, pojazdy autonomiczne).

ChatGPT to najpopularniejszy jak dotąd model sztucznej inteligencji. Dzięki partnerstwu Microsoftu z Open AI,  ta generatywna SI osiąga niesamowicie dynamiczny progres. ChatGPT to stosunkowo nowy system sztucznej inteligencji (AI) znany jako wielkoskalowy model językowy, zaprojektowany w celu przewidywania nadchodzących sekwencji słów i kreowania tekstu podobnego do ludzkiego.  Niniejszy system stanowi część szerszego zestawu technologii, opracowanych przez OpenAI. Założeniem twórców było stworzenie maszyn, działających na wzór ludzkiej inteligencji. Jednak ChatGp nie jest jedyny a jego konkurencja gwałtownie rośnie.

Bard to chatbot sztucznej inteligencji opracowany przez Google, w oparciu o rodzinę Large-Scale Language Model (LLM). Google Bard powstał w rezultacie obserwacji gigantycznego postępu ChatGPT . Ostatecznie wydany został jako wersja przedpremierowa w marcu 2023 roku. Google Bard umożliwia tworzenie treści językowych, prowadzenie dialogu oraz, co istotne także opracowanie podsumowania wykreowanej treści. Na obecną chwilę można powiedzieć, iż jest to największy rywal ChatGPT, jednakże to technologia OpenAI nadal obejmuje prowadzenie. ChatGPT rozwiązuje wiele problemów znacznie sprawniej, aczkolwiek narzędzie SI od Google należy traktować jeszcze w kategoriach eksperymentu.

Kolejnym rosnącym w potęgę rywalem jest model Chinchilla Al. Chinchilla to zbiór modeli językowych opracowanych przez zespół badawczy DeepMind. Chinchilla generuje tekst na dowolny temat w oparciu o wiele słów kluczowych i odpowiada na zapytania użytkowników w języku naturalnym. Charakterystyczne dla tego modelu Si jest wykorzystanie mniejszej liczby parametrów i niższe zużycie energii przy jednocześnie wysokiej wydajności i imponującej bazie danych.

Wartymi uwagi okazują się także inne, mniej popularne chatboty, między innymi:

  • Jasper 

Chatbot przeznaczony przede wszystkim dla firm i marketerów do tworzenia komunikatów prasowych, ogłoszeń o produktach i innych treści tekstowych.  Jasper zapewnia odpowiedzi w języku naturalnym, bazując na OpenAI GPT-3.

  • Chatsonic 

Chatsonic jest chatbotem, który poza treściami, tworzy dzieła sztuki. Wyróżnia go zdolność sprawnej obsługi głosu. Warto nadmienić, iż jest jednym z najdroższych dostępnych chatbotów.

  • WriteSonic 

Chatbot WriteSonic umożliwia, zarówno edycję, jak i kopiowanie, pobieranie czy udostępnianie wyników i treści. Możliwa okazuje się również pożądana kreacja obrazów na bazie podanego opisu.

  • Character.AI

Character.AI to narzędzie do generowania tekstu oparte na sztucznej inteligencji, skierowane głównie dla sektora kreatywnego. Chatbot używany najczęściej do tworzenia dialogów dla postaci: w serialach, filmach, grach. Ciekawą funkcją jest umiejętność symulacji wypowiedzi niektórych celebrytów.

  • Rytm 

Niniejszy chatbot zapewnia dość szerokie możliwości dostosowywania generowanego tekstu, tym samym jest szczególnie przydatnym narzędziem dla copywriterów i osób z branży marketingowej.

  • YouChat 

Chatbot używany jako generator obrazów i treści, wyposażony także w możliwość kodowania.

  • Bing 

Bing to wyszukiwarka Microsoft oparta o technologie SI, która umożliwia użytkownikom dialog z chatbotem i tworzenie przez Al określonych treści

Oczywiście każdy rodzaj sztucznej inteligencji można wykorzystać w bardzo pozytywnym kontekście i na wiele rozmaitych sposobów. Współcześnie, w dobie cyfryzacji i dynamizmu technologicznego trudno sobie nawet wyobrazić jej deficyt. Rozsądne wykorzystanie potencjału sztucznej inteligencji może bowiem przynieść liczne korzyści, między innymi: rozwój opieki zdrowotnej (szybkie i precyzyjne diagnozowanie chorób), bezpieczny i przyjazny dla środowiska transport, wzrost efektywności produkcyjnej.

Oczywiście jest też druga strona medalu. Pojawienie się i obserwowany progres sztucznej inteligencji niesie ze sobą zagrożenia, związane w dużej mierze z edukacją, a przede wszystkim środowiskiem akademickim. Okazuje się wszak, iż studenci coraz częściej wpadają na genialny pomysł, aby wyręczyć się sztuczną inteligencją w napisaniu swojej pracy dyplomowej. Wątpliwości jest wciąż wiele – dotyczą one w dużej mierze kwestii moralnych i etycznych, gdyż niedoskonałość SI stała się już faktem:

1. Sztuczna inteligencja potrafi wprawdzie opracować tekst na pewien, określony temat, aczkolwiek jest on dość powierzchowny, co by nie zauważyć nawet nieco infantylny, co skutkuje oczywiście jego marną jakością i często także brakiem naukowych podstaw.

2. Tekst stworzony przez SI mimo pewnych prób precyzji nie jest wolny od błędów, zarówno merytorycznych, jak i językowych, spowodowanych w pewnym stopniu niewłaściwym dostosowaniem aktualnej wersji SI do warunków języka polskiego.

3. Sztuczna inteligencja stosuje nadmierne powtórzenia i mimo stosowania różnych słów i ich synonimów, sens wypowiedzi jest zwielokrotniany, co nie umyka doświadczonemu czytelnikowi, a nie wątpliwie do takiego typu odbiorców należałoby zaliczyć osobę promotora.

4. SZTUCZNA INTELIGENCJA KŁAMIE – bezwzględnie należy wziąć pod uwagę aspekt wiarygodności SI. Korzysta ona bowiem z zasobów wiedzy zgromadzonych w Internecie, które nie zawsze stanowią zweryfikowane pod względem autentyczności źródło.

5. Konfabulacje SI – sztuczna inteligencja, zamierzając poradzić sobie z wyznaczonym zadaniem za wszelką cenę, przejawia tendencje do konfabulacji, naciągania faktów i tworzenia sfabrykowanych treści. Pewnie poradzi sobie z tematem ogólnym na poziomie szkoły średniej, zaś nie jest w stanie zredagować dobrej jakości pracy naukowej.

6. Sztuczna inteligencja nie stosuje przypisów, a co więcej ma problemy z rzetelną bibliografią. Przypisy i rozbudowana bibliografia są absolutnie niezbędne w pracy dyplomowej.  Chat GPT nie może poprawnie dodawać adnotacji. Jeśli zostanie poproszony o umieszczenie przypisów w najlepszym przypadku przedstawi spis bibliograficzny. Co więcej, okazuje się, iż podana przez SI bibliografia w ogóle istnieje. Wszak charakterystyczne dla sztucznej inteligencji jest podawanie fałszywych, nieznajdujących odzwierciedlenia w rzeczywistości pozycji. Dla doświadczonych instruktorów wykrycie takich błędnych przypisów nie stanowi najmniejszego problemu. Warto wspomnieć, iż każdy student, który zdecyduje się na skorzystanie z SI, będzie musiał włożyć niemały trud w to, by podane źródła weryfikować, a pozostaje jeszcze kwestia identyfikacji stron, gdy któreś źródło okaże się jednak prawdziwe. W rezultacie może powstanie nieco sensowna praca, która bądź co bądź i tak będzie marnej jakości.

Odrębną kwestią pozostaje WYSOKIE RYZYKO PLAGIATU i wszelkie konsekwencje jego udowodnienia.

Pytanie, czy przekazanie pracy napisanej przez Chat GPT stanowi plagiat, jest często poruszane i poddawane analizie, zarówno w kontekście naruszenia zasad antyplagiatowych, jak i w środowiskach prawnych. Pomimo faktu, iż w przypadku sztucznej inteligencji twórcą dzieła nie jest konkretny człowiek to Ustawa o Prawie Autorskim i Prawach Pokrewnych definiuje jako wykonawcę producenta, wydawcę czy też organizację, a zatem w przypadku SI będą to po prostu jej właściciele czy producenci.  Nie ma więc tu absolutnie znaczenia kto jest de facto właścicielem, ale sam fakt, iż praca napisana przez sztuczną inteligencję jest takim samym plagiatem jak skopiowanie czyjegoś dzieła, a więc przestępstwem, za które grozi pełna odpowiedzialność karna.

Plagiat jest przestępstwem, które opisuje ustawa O Prawach Autorskich i Prawie Pokrewnym z dnia 4 lutego 1994 roku. Artykuł 115 paragraf pierwszy zaznacza, iż karze podlega każda osoba, która przywłaszcza sobie część lub całą pracę cudzego autorstwa. Na sprawcę pozostaje nałożona kara grzywny bądź kara ograniczenia lub pozbawienia wolności do trzech lat. Oczywiście pozostaje także kwestia kary dyscyplinarnej, a długo by wymieniać opłakane skutki dla studenta, któremu udowodniony zostanie plagiat. Student zostaje zawieszony do czasu wyjaśnienia sprawy, a w razie udowodnienia przestępstwa wyeliminowany ze środowiska studenckiego.  Co więcej kara taka nie ulega przedawnieniu i nawet obroniona praca, która zostanie zweryfikowana w późniejszym terminie, może zostać unieważniona, co skutkuje także i unieważnieniem dyplomu zawodowego, nawet w perspektywie kilku lat po ukończeniu studiów.

Rodzi się zatem pytanie, czy antyplagiat wykryje pracę napisaną przez sztuczną inteligencję. Otóż tak jest to bardzo prawdopodobne z co najmniej kilku powodów. Jednolity System Antyplagiatowy (JSA) nie posiada wprawdzie odrębnych funkcji do sprawdzenia pracy pod kątem użycia sztucznej inteligencji, aczkolwiek same jego algorytmy wystarczą by taką pracę zidentyfikować. 

Mimo iż studentom wydaje się, że Si tworzy oryginalne teksty, w rzeczywistości wcale tak nie jest. Sztuczna inteligencja lubi powtarzać pewne informacje kilka razy, ale innymi słowami. Algorytmy wykrywania plagiatów badają ścieżkę konstrukcyjną wygenerowanego tekstu. Chat GPT to nie człowiek, a maszyna działająca w oparciu właśnie o algorytmy. Jeśli zatem większa ilość osób zada jej podobne pytania, wysoce prawdopodobne, iż wyniki będą niemal identyczne. Ponadto SI czerpie całą swoją wiedzę z dostępnych zasobów internetowych i tak naprawdę nie do końca wie, jak skompilować poszczególne źródła. Sztuczna inteligencja używa podobnych i dość charakterystycznych słów, fraz i zwrotów, co nie pozostaje niezauważone przez algorytmy JSA.

Obecnie już istnieje technologia, która potrafi odróżnić tekst pisany przez ludzi od tekstu pisanego przez maszyny. Wykorzystanie tej już szeroko rozpowszechnionej technologii na dużą skalę w systemach antyplagiatowych jest tylko kwestią czasu. Jeśli praca napisana za pomocą sztucznej inteligencji jakimś cudem zda egzamin, podczas weryfikacji przez system JSA, gdy kolejno przekazana do ORPD otrzyma ostrzeżenie o plagiacie, nawet po kilku latach dyplomy absolwentów mogą zostać uznane za nieważne, a oni sami jako sprawcy pociągnięci również do odpowiedzialności karnej.

Należy zauważyć, iż gdy pojawia się ryzyko popełnienia przestępstwa, niemal natychmiast wdrażane są rozwiązania, zarówno o charakterze prewencyjnym, jak i eliminującym to ryzyko. Nie inaczej jest w przypadku sztucznej inteligencji, a w tym przypadku postęp technologiczny sprzyja innowacyjnym rozwiązaniom, co oznacza, iż niebawem każde użycie SI zostanie zauważone. Już na ten moment poza precyzyjnym Jednolitym Systemem Antyplagiatowym, istnieje wiele alternatywnych możliwości udowodnienia jej użycia. Nawet sam Chat GP,  który pomagał studentowi w opracowywaniu pracy okazuje się zdradliwy. Porównując bowiem treści i poszczególne frazy, jest w stanie ujawnić stopień prawdopodobieństwa. Już więc na ten moment istnieją alternatywne możliwości weryfikacji pracy dyplomowej pod katem użycia SI, z których oczywiście mogą korzystać także uczelnie.

Należałoby wspomnieć przede wszystkim o:

  • Antyplagiat Chat GPT.,
  • GPTZero antyplagiat dedykowany sztucznej inteligencji,
  • detektor plagiatów Turnitin

Reasumując, sztuczna inteligencja, mimo kolosalnej progresji nadal ma znaczne ograniczenia. ABSOLUTNIE zatem NIE NALEŻY KOPIOWAĆ żadnych treści przez nią opracowanych. Pomijając fakt niskiej jakości i mnóstwa błędów, popełnianych przez SI, pozostaje faktem, iż tekst pozostaje dziełem obcego systemu, a zatem jest po prostu plagiatem, który wcześniej, czy później może zostać wykryty. Wiąże się to z ryzykiem PONIESIENIA PEŁNEJ ODPOWIEDZIALNOŚCI DYSCYPLINARNEJ I KARNEJ, zgodnie z polskimi regulacjami prawnymi. Wprawdzie sama maszyna nie jest w stanie pozwać nikogo za naruszenie praw autorskich w ramach odpowiedzialności cywilnej, ale autor technologii może to jak najbardziej zrobić, zgodnie z artykułami 272 i 273 Kodeksu Karnego. Warto zauważyć, iż wtedy konsekwencje są znacznie poważniejsze niż pozew o naruszenie praw autorskich. Jak wspomniano odpowiedzialność dyscyplinarna to eliminacja ze środowiska akademickiego i unieważnienie dyplomu. Sytuacja dotyczy także sytuacji, gdy sprawca ukończył już studia, a jego praca została poddana ponownej weryfikacji. Otrzymanie dyplomu i kwalifikacji zawodowych nie jest bowiem sprawą ostateczną. Praca pozostaje w bazach a dostęp do niej i możliwość jej ponownego sprawdzenia nie jest niczym abstrakcyjnym. Spokojnie mogą spać studenci, których praca jest unikalna, napisana przy użyciu ludzkich możliwości logicznego myślenia, a nie przez ścieżki, jakże wciąż niedoskonałego i schematycznego systemu.

 Wiadomą sprawą jest, iż gdy tylko pojawiają się nowe technologie, a wraz z nimi pokusa nadużycia, tworzone są także programy ,,anty”, czyli owe nadużycie wykrywające. Skoro możliwe jest opracowanie sztucznej inteligencji, czemu stworzenie technologii rozpoznawczej miałoby być jakimkolwiek problemem? Otóż nie jest. Wspomniano już Antyplagiat Chat GPT, GPTZero i detektorze Turnitina, ale to tylko kropla w morzu. Wciąż rozwijane są kolejne systemy, których skuteczność rośnie. Sam Jednolity System antyplagiatowy jest doskonalony pod tym kątem. Nie ma najmniejszego znaczenia fakt, iż studentowi uda się uniknąć konsekwencji w tym momencie, bowiem za rok czy dwa teksty generowane przez chatbota będą błyskawicznie wykrywane. Jak wiadomo praca może być ponownie zweryfikowana po kilku latach. Konsekwencjami będzie odebranie dyplomu i kwalifikacji zawodowych, a w dalszej kolejności odpowiedzialność prawna.

Zatem problemy z napisaniem pracy dyplomowej warto konsultować WYŁĄCZNIE z odpowiednimi ludźmi, którzy posiadają wiedzę i doświadczenie, tym samym są JEDYNYM gwarantem oryginalności i unikalności, a przede wszystkim bezpieczeństwa.


Opublikowano

w

Tagi: