Najlepsze praktyki w korzystaniu z AI przy pisaniu tekstów naukowych

(Opracowane na podstawie artykułu „Best Practices for Using AI When Writing Scientific Manuscripts: Caution, Care, and Consideration: Creative Science Depends on It”, opublikowanego w ACS Nano)

W ostatnim czasie gwałtownie rośnie popularność narzędzi opartych na generatywnej sztucznej inteligencji (GenAI) – jak ChatGPT – które potrafią tworzyć spójne teksty na dowolny temat. Pojawia się jednak pytanie, w jakim stopniu naukowcy mogą (i powinni) wykorzystywać te narzędzia przy pisaniu artykułów naukowych. Redaktorzy w czasopiśmie ACS Nano (American Chemical Society) w swoim artykule przedstawili zarówno potencjalne korzyści, jak i zagrożenia związane z AI. Oferują też zalecenia i dobre praktyki, by uniknąć naruszeń etycznych i jakościowych. Poniżej streszczam najważniejsze punkty, wyjaśniając, jak doktorant może skorzystać z GenAI w przemyślany i odpowiedzialny sposób.


1. Dlaczego w ogóle rozmawiamy o AI w pisaniu naukowym?

Szybki rozwój narzędzi językowych: Od premiery ChatGPT w listopadzie 2022 notuje się miliony użytkowników, a inne systemy (np. Bard, Gemini) także wzbudzają duże zainteresowanie. Choć AI potrafi generować tekst wyglądający profesjonalnie, to – zdaniem autorów – brakuje jej zdolności do głębokiej analizy, interpretacji, czy twórczego łączenia nowych koncepcji, co jest kluczowe w nauce.


2. Potencjalne korzyści z wykorzystania AI w pisaniu

  1. Przełamywanie blokady pisarskiej
    • ChatGPT może pomóc przy pierwszym szkicu (draft) lub zaproponować wstępne frazy, nagłówki. Otrzymanie „zarysu” tekstu to czasem punkt startowy do własnej pracy twórczej.
  2. Poprawa językowa
    • Narzędzia AI potrafią wygładzać tekst, eliminować błędy gramatyczne i stylistyczne. Dla osób piszących w języku obcym to znaczne ułatwienie.
  3. Wzbogacenie słownictwa
    • AI może sugerować synonimy, wyrażenia czy ciekawsze konstrukcje zdań, co poprawia czytelność i atrakcyjność stylu.
  4. Strukturyzacja trudniejszych fragmentów
    • Kiedy masz kłopot z klarownym podziałem rozdziału, ChatGPT może podpowiedzieć sekcje, pytania wiodące lub punkty do omówienia.

3. Główne obawy i ograniczenia

  1. Brak „rozumienia” i głębi analizy
    • AI generuje tekst na podstawie wzorców statystycznych i nie ma świadomości kontekstu naukowego. Może tworzyć treści brzmiące profesjonalnie, ale pozbawione wartości merytorycznej lub pełne „mętnych” stwierdzeń.
  2. Możliwość wprowadzania błędnych cytatów czy faktów
    • Modele językowe potrafią wymyślać (halucynować) bibliografię albo łączyć dane z różnych źródeł w sposób mylący. To autor musi weryfikować wszystkie odwołania i dane.
  3. Ryzyko spłaszczania oryginalności
    • AI często generuje „bezpieczne” uogólnienia oparte na powszechnie występujących sformułowaniach w korpusie. Może to zniechęcać do autentycznie innowacyjnych i nieszablonowych wniosków.
  4. Zacieranie odpowiedzialności autorskiej
    • Kto jest autorem, jeśli znaczna część tekstu powstała w AI? Dla redakcji pism naukowych ważne jest jasne przypisanie wkładu. Nie można przypisywać AI wymyślania idei czy interpretacji. To zadanie badacza.
  5. Utrudnione wykrywanie manipulacji
    • Tekst generowany przez AI może z łatwością wypełniać luki, ale bez rzetelnych podstaw naukowych. Recenzent może mieć trudność w szybkim wykryciu, że argumentacja jest „pusta” lub pozbawiona realnych danych.

4. Rekomendacje autorów z ACS Nano: jak stosować GenAI z rozwagą?

  1. Korzystaj z AI raczej jako narzędzia wspomagającego, a nie tworzącego treść naukową
    • Zaleca się traktować ChatGPT i inne boty jako pomoc w pisaniu wstępnym (np. przełamanie blokady kreatywnej) czy korekcie językowej, ale meritum (metodyka, interpretacja wyników) pozostaje odpowiedzialnością naukowca.
  2. Zawsze weryfikuj poprawność danych i cytowań
    • Nigdy nie wklejaj automatycznie generowanych cytowań. AI może fabrykować artykuły lub nazwiska. Sprawdzaj w bazach (Google Scholar, CrossRef) każdą pozycję.
  3. Ogranicz zaufanie do sugestii merytorycznych
    • AI może wypełniać luki pseudonaukowym brzmieniem. Autor sam musi ocenić, czy dane twierdzenie ma poparcie w badaniach, czy jest tylko uogólnioną parafrazą.
  4. Zachowaj ludzki, krytyczny namysł
    • Modele językowe nie rozumieją „przełomowości” wyniku ani nie potrafią ocenić, czy jakaś teza jest naprawdę innowacyjna lub sporna. To zadanie badacza – dodać autentyczną interpretację.
  5. Oznacz w manuskrypcie, w jaki sposób korzystałeś z AI (jeśli w ogóle)
    • Coraz więcej czasopism sugeruje przejrzystość (np. w sekcji: „Author Contributions” lub „Acknowledgments”). Niektóre wydawnictwa tworzą nowe wytyczne: „Jeśli narzędzia AI pomogły w składni zdania czy streszczeniu, napisz to otwarcie.”
  6. Nie ceduj na AI kwestii etycznych lub deklaracji
    • Np. “Conflicts of Interest” czy stwierdzeń o oryginalności artykułu. AI nie ponosi odpowiedzialności prawnej czy moralnej — autor tak.

5. Jak w praktyce doktorant może korzystać z AI?

  1. „Draft zero”
    • Po zebraniu danych i opracowaniu koncepcji artykułu możesz poprosić AI o pomoc w wygenerowaniu „szkicu” abstraktu lub wstępu. Potraktuj to jednak tylko jako punkt startowy, który przejrzysz i radykalnie poprawisz.
  2. Korekta językowa
    • Kiedy masz już własnoręcznie napisany tekst, możesz podać go AI w celu zasugerowania drobnych ulepszeń stylistycznych lub sprawdzenia spójności. Ale pamiętaj, że to Ty decydujesz, co ostatecznie zostaje w tekście.
  3. Tworzenie listy słów kluczowych
    • ChatGPT może zaproponować zestaw keywordów na podstawie Twojego abstraktu, co jest przydatne przy składaniu do czasopisma, choć znów należy sprawdzić trafność tych słów.
  4. Pomoc w podziale rozdziału
    • Jeśli masz trudność z organizacją sekcji w dyskusji, możesz zapytać AI o sugestię struktury. Ale dbaj o merytoryczną zgodność z Twoimi wynikami.

6. Zagrożenia nadużycia

  • Plagiat ukryty: Jeśli AI generuje fragmenty, autor może nieświadomie przejąć konstrukcje lub argumenty, które pochodzą z korpusu (bez adekwatnych cytowań).
  • Fałszywe cytowania i dane: ChatGPT często „uzupełnia” bibliografię fikcyjnymi tytułami.
  • Brak oryginalności: Nadmierne poleganie na AI może prowadzić do ujednoliconego, sztampowego stylu. Dla rozprawy doktorskiej kluczowe jest pokazanie własnej inwencji i autorskiego myślenia.

7. Konkluzja: kreatywna nauka zależy od ostrożnego korzystania z AI

Redaktorzy ACS Nano podkreślają, że narzędzia AI będą się rozwijać i stawać coraz lepsze w generowaniu tekstu. Już teraz widzimy, że potrafią one pomóc w pisaniu, ale nadal nie potrafią przejąć na siebie zadania formułowania oryginalnych koncepcji naukowych, wyciągania wniosków czy oceny wartości empirycznej danych. Dlatego w świecie nauki kluczowa jest:

  1. Przejrzystość (deklarowanie, co AI zrobiło, a co autor).
  2. Krytyczna weryfikacja (żadne zdanie wygenerowane przez AI nie powinno trafiać do druku bez sprawdzenia).
  3. Kreatywność i odpowiedzialność ludzka (mimo że narzędzie podsuwa pewne frazy, to ostatecznie my ustalamy sens i znaczenie badań).

Warto pamiętać, że rola naukowca nie ogranicza się do zgrabnego stylu — jest przede wszystkim wnoszeniem nowej wiedzy. AI może nas wspierać w procesie redagowania, ale to my nadajemy mu kierunek, wizję i prawdzi

Gorąco polecamy także: