
W ostatnim czasie gwałtownie rośnie popularność narzędzi opartych na generatywnej sztucznej inteligencji (GenAI) – jak ChatGPT – które potrafią tworzyć spójne teksty na dowolny temat. Pojawia się jednak pytanie, w jakim stopniu naukowcy mogą (i powinni) wykorzystywać te narzędzia przy pisaniu artykułów naukowych. Redaktorzy w czasopiśmie ACS Nano (American Chemical Society) w swoim artykule przedstawili zarówno potencjalne korzyści, jak i zagrożenia związane z AI. Oferują też zalecenia i dobre praktyki, by uniknąć naruszeń etycznych i jakościowych. Poniżej streszczam najważniejsze punkty, wyjaśniając, jak doktorant może skorzystać z GenAI w przemyślany i odpowiedzialny sposób.
1. Dlaczego w ogóle rozmawiamy o AI w pisaniu naukowym?
Szybki rozwój narzędzi językowych: Od premiery ChatGPT w listopadzie 2022 notuje się miliony użytkowników, a inne systemy (np. Bard, Gemini) także wzbudzają duże zainteresowanie. Choć AI potrafi generować tekst wyglądający profesjonalnie, to – zdaniem autorów – brakuje jej zdolności do głębokiej analizy, interpretacji, czy twórczego łączenia nowych koncepcji, co jest kluczowe w nauce.
2. Potencjalne korzyści z wykorzystania AI w pisaniu
- Przełamywanie blokady pisarskiej
- ChatGPT może pomóc przy pierwszym szkicu (draft) lub zaproponować wstępne frazy, nagłówki. Otrzymanie „zarysu” tekstu to czasem punkt startowy do własnej pracy twórczej.
- Poprawa językowa
- Narzędzia AI potrafią wygładzać tekst, eliminować błędy gramatyczne i stylistyczne. Dla osób piszących w języku obcym to znaczne ułatwienie.
- Wzbogacenie słownictwa
- AI może sugerować synonimy, wyrażenia czy ciekawsze konstrukcje zdań, co poprawia czytelność i atrakcyjność stylu.
- Strukturyzacja trudniejszych fragmentów
- Kiedy masz kłopot z klarownym podziałem rozdziału, ChatGPT może podpowiedzieć sekcje, pytania wiodące lub punkty do omówienia.
3. Główne obawy i ograniczenia
- Brak „rozumienia” i głębi analizy
- AI generuje tekst na podstawie wzorców statystycznych i nie ma świadomości kontekstu naukowego. Może tworzyć treści brzmiące profesjonalnie, ale pozbawione wartości merytorycznej lub pełne „mętnych” stwierdzeń.
- Możliwość wprowadzania błędnych cytatów czy faktów
- Modele językowe potrafią wymyślać (halucynować) bibliografię albo łączyć dane z różnych źródeł w sposób mylący. To autor musi weryfikować wszystkie odwołania i dane.
- Ryzyko spłaszczania oryginalności
- AI często generuje „bezpieczne” uogólnienia oparte na powszechnie występujących sformułowaniach w korpusie. Może to zniechęcać do autentycznie innowacyjnych i nieszablonowych wniosków.
- Zacieranie odpowiedzialności autorskiej
- Kto jest autorem, jeśli znaczna część tekstu powstała w AI? Dla redakcji pism naukowych ważne jest jasne przypisanie wkładu. Nie można przypisywać AI wymyślania idei czy interpretacji. To zadanie badacza.
- Utrudnione wykrywanie manipulacji
- Tekst generowany przez AI może z łatwością wypełniać luki, ale bez rzetelnych podstaw naukowych. Recenzent może mieć trudność w szybkim wykryciu, że argumentacja jest „pusta” lub pozbawiona realnych danych.
4. Rekomendacje autorów z ACS Nano: jak stosować GenAI z rozwagą?
- Korzystaj z AI raczej jako narzędzia wspomagającego, a nie tworzącego treść naukową
- Zaleca się traktować ChatGPT i inne boty jako pomoc w pisaniu wstępnym (np. przełamanie blokady kreatywnej) czy korekcie językowej, ale meritum (metodyka, interpretacja wyników) pozostaje odpowiedzialnością naukowca.
- Zawsze weryfikuj poprawność danych i cytowań
- Nigdy nie wklejaj automatycznie generowanych cytowań. AI może fabrykować artykuły lub nazwiska. Sprawdzaj w bazach (Google Scholar, CrossRef) każdą pozycję.
- Ogranicz zaufanie do sugestii merytorycznych
- AI może wypełniać luki pseudonaukowym brzmieniem. Autor sam musi ocenić, czy dane twierdzenie ma poparcie w badaniach, czy jest tylko uogólnioną parafrazą.
- Zachowaj ludzki, krytyczny namysł
- Modele językowe nie rozumieją „przełomowości” wyniku ani nie potrafią ocenić, czy jakaś teza jest naprawdę innowacyjna lub sporna. To zadanie badacza – dodać autentyczną interpretację.
- Oznacz w manuskrypcie, w jaki sposób korzystałeś z AI (jeśli w ogóle)
- Coraz więcej czasopism sugeruje przejrzystość (np. w sekcji: „Author Contributions” lub „Acknowledgments”). Niektóre wydawnictwa tworzą nowe wytyczne: „Jeśli narzędzia AI pomogły w składni zdania czy streszczeniu, napisz to otwarcie.”
- Nie ceduj na AI kwestii etycznych lub deklaracji
- Np. “Conflicts of Interest” czy stwierdzeń o oryginalności artykułu. AI nie ponosi odpowiedzialności prawnej czy moralnej — autor tak.
5. Jak w praktyce doktorant może korzystać z AI?
- „Draft zero”
- Po zebraniu danych i opracowaniu koncepcji artykułu możesz poprosić AI o pomoc w wygenerowaniu „szkicu” abstraktu lub wstępu. Potraktuj to jednak tylko jako punkt startowy, który przejrzysz i radykalnie poprawisz.
- Korekta językowa
- Kiedy masz już własnoręcznie napisany tekst, możesz podać go AI w celu zasugerowania drobnych ulepszeń stylistycznych lub sprawdzenia spójności. Ale pamiętaj, że to Ty decydujesz, co ostatecznie zostaje w tekście.
- Tworzenie listy słów kluczowych
- ChatGPT może zaproponować zestaw keywordów na podstawie Twojego abstraktu, co jest przydatne przy składaniu do czasopisma, choć znów należy sprawdzić trafność tych słów.
- Pomoc w podziale rozdziału
- Jeśli masz trudność z organizacją sekcji w dyskusji, możesz zapytać AI o sugestię struktury. Ale dbaj o merytoryczną zgodność z Twoimi wynikami.
6. Zagrożenia nadużycia
- Plagiat ukryty: Jeśli AI generuje fragmenty, autor może nieświadomie przejąć konstrukcje lub argumenty, które pochodzą z korpusu (bez adekwatnych cytowań).
- Fałszywe cytowania i dane: ChatGPT często „uzupełnia” bibliografię fikcyjnymi tytułami.
- Brak oryginalności: Nadmierne poleganie na AI może prowadzić do ujednoliconego, sztampowego stylu. Dla rozprawy doktorskiej kluczowe jest pokazanie własnej inwencji i autorskiego myślenia.
7. Konkluzja: kreatywna nauka zależy od ostrożnego korzystania z AI
Redaktorzy ACS Nano podkreślają, że narzędzia AI będą się rozwijać i stawać coraz lepsze w generowaniu tekstu. Już teraz widzimy, że potrafią one pomóc w pisaniu, ale nadal nie potrafią przejąć na siebie zadania formułowania oryginalnych koncepcji naukowych, wyciągania wniosków czy oceny wartości empirycznej danych. Dlatego w świecie nauki kluczowa jest:
- Przejrzystość (deklarowanie, co AI zrobiło, a co autor).
- Krytyczna weryfikacja (żadne zdanie wygenerowane przez AI nie powinno trafiać do druku bez sprawdzenia).
- Kreatywność i odpowiedzialność ludzka (mimo że narzędzie podsuwa pewne frazy, to ostatecznie my ustalamy sens i znaczenie badań).
Warto pamiętać, że rola naukowca nie ogranicza się do zgrabnego stylu — jest przede wszystkim wnoszeniem nowej wiedzy. AI może nas wspierać w procesie redagowania, ale to my nadajemy mu kierunek, wizję i prawdzi