
Wprowadzenie: skąd obawy wobec AI w pisaniu naukowym?
Generatywna sztuczna inteligencja (GenAI) – w tym popularne narzędzia jak ChatGPT czy Gemini² – przebojem wdarła się do świata nauki i przemysłu. Szczególnie w ostatnich latach zauważyć można wzmożone dyskusje na temat etycznego i praktycznego wykorzystania AI do tworzenia i wspierania prac pisemnych. Mimo że AI może poprawiać stylistykę, proponować tłumaczenia czy nawet sugerować struktury tekstu, nadal brakuje spójnych standardów oceny „zasługi” człowieka w procesie pisania i dokonywania przeglądu literatury.
W badaniu opisanym w artykule autorzy przyglądają się zjawisku, które nazywają wręcz „polowaniem na czarownice” – recenzenci naukowi mogą w niektórych sytuacjach negatywnie reagować na teksty „podejrzanie” lub oficjalnie wspomagane przez AI (bez jasnego wskazania, w jaki sposób to wsparcie miało miejsce). Pojawia się pytanie: Czy generatywna AI rzeczywiście zagraża jakości prac naukowych, a może wręcz ją podnosi?
Metoda badawcza i kontekst
Aby zbadać postawy recenzentów, autorzy przeprowadzili ankietę snippet-based wśród 17 recenzentów z najlepszych konferencji HCI (Human-Computer Interaction). Taki dobór grupy jest nieprzypadkowy – w dyscyplinie HCI spotykają się eksperymenty, interaktywne technologie i innowacje, a sama branża jest otwarta na nowości (jak AI). Jednocześnie recenzje w tych konferencjach uchodzą za bardzo wymagające.
Snippet-based?
Badacze pokazali krótkie fragmenty (snippety) tekstu – jeden napisany wyłącznie przez człowieka, inny z wyraźnym wspomaganiem AI. Zadanie recenzentów polegało na ocenie tych tekstów, wskazaniu potencjalnych wad i atutów, a także wyrażeniu opinii na temat ewentualnej roli narzędzi AI.
Kluczowe wyniki
- Poprawa jakości pisania
Recenzenci ogólnie dostrzegali, że fragmenty wspomagane przez AI są bardziej klarowne, spójne i bogatsze językowo. Często generatywna AI potrafi wygładzić tekst, usunąć potoczne zwroty i dodać bardziej naukowy ton. - Brak „głębi naukowej”
Paradoksalnie, mimo że tekst wspomagany AI lepiej się czyta, recenzenci czuli niedosyt konkretnych szczegółów badawczych i tzw. wniosków refleksyjnych. Ich zdaniem, AI rzadko dodaje wartość teoretyczną, a raczej upraszcza bądź układa słowa i zdania. - Trudność w odróżnieniu tekstu tworzonego przez człowieka od tego wspomaganego przez AI
Wbrew powszechnym obawom, recenzenci mieli problemy z trafnym „wykryciem” czy dany fragment opracował człowiek, czy AI. Wielokrotnie decydowali się raczej na ocenę samej jakości, ignorując kwestię autorstwa. - Stereotypowe postrzeganie AI
Wielu recenzentów wskazywało, że tekst z AI może tracić tzw. „human touch” – unikalny styl bądź subiektywny rys autora. Zarzucano też potencjalne zagrożenia, że AI wprowadza treści pozbawione kontekstu lub w ogóle zmyślone. - Zalecenia dla autorów i recenzentów
Artykuł podkreśla, że wnioskiem płynącym z badań jest konieczność spójnych wytycznych dla autorów: w jaki sposób wolno używać AI, gdzie to zaznaczać i w jakim stopniu. Również recenzenci powinni bazować na twardych kryteriach merytorycznych (np. rzetelności wyników i metod), a nie tylko subiektywnych podejrzeniach co do „brzmienia” tekstu.
Wnioski: jak GenAI wpływa na recenzowanie prac?
- Poczucie zagrożenia: Recenzenci boją się, że masowe korzystanie z AI zniekształci proces naukowy, obniży standardy oryginalności lub spowoduje powstanie masy „pustych” publikacji.
- Poprawa czytelności: Z drugiej strony, tekst generowany z pomocą AI bywa bardziej przystępny i pozbawiony typowych błędów językowych, co może przyspieszyć recenzowanie.
- Brak jasnych reguł: Społeczność naukowa dopiero wypracowuje zasady. Czy powinno się wprost zaznaczać fragmenty napisane przez AI? Jak to wpływa na autorstwo, a jak na odpowiedzialność za treść?
Znaczenie dla doktorantów
- Odpowiedzialne użycie AI
- Jeśli korzystasz z ChatGPT czy innej generatywnej AI do korekty stylu, pamiętaj, żeby wciąż samodzielnie dodawać wartość naukową – metodologię, dyskusję wyników, refleksje nad literaturą. AI może pomóc z formą, ale nie wykreuje za Ciebie oryginalnej treści naukowej.
- Komunikacja z promotorem
- Warto ustalić z promotorem i współautorami, w jakim zakresie planujesz używać AI do pisania. Niektóre uczelnie wprowadzają już polityki definiujące dozwolone sposoby wsparcia narzędziami generatywnymi.
- Przygotowanie na różne reakcje recenzentów
- Jak pokazuje omawiane badanie, recenzenci wciąż mogą mieć uprzedzenia lub niejasne oczekiwania względem tekstów tworzonych wspólnie z AI. Lepiej skupić się na solidnych danych, jasnych analizach i otwartej deklaracji wsparcia (jeśli duży fragment generujesz z AI).
- Kreatywne wykorzystanie
- AI może być użyte do generowania pomysłów na tytuł, streszczenia, sprawdzania gramatyki, ale zawsze pamiętaj o weryfikacji i merytorycznej poprawności.
- Nie traktuj AI jako autora – raczej jako narzędzie do wsparcia, podobne do sprawdzania pisowni czy tłumaczenia.
Podsumowanie
Niniejszy artykuł rzuca światło na to, jak recenzenci z topowych konferencji HCI postrzegają teksty częściowo tworzone czy ulepszane przez generatywną AI. Z jednej strony widać obawy o utratę „ludzkiego pierwiastka” oraz brak głębi naukowej, z drugiej – dostrzegalną korzyść w postaci bardziej dopracowanego języka i struktury. Kluczowe przesłanie brzmi: jakość merytoryczna powinna pozostać priorytetem, a narzędzia AI to jedynie asystenci w procesie pisania – naukowcy muszą zachować kontrolę nad treścią i w pełni za nią odpowiadać.
Dla doktorantów to cenna lekcja: warto umiejętnie korzystać z AI (np. do korekty czy skracania tekstu), ale jednocześnie dbać o spójną metodologię, unikatowy wkład naukowy i przejrzyste zasady dotyczące współautorstwa z narzędziami generatywnymi. Można w ten sposób zyskać na czasie i jakości stylu, nie ryzykując utraty wiarygodności w oczach recenzentów.o1