
W ostatnich miesiącach mnożą się doniesienia o tym, jak sztuczna inteligencja (AI), a zwłaszcza narzędzia generatywne typu ChatGPT, wkracza w świat nauki i badań. Wyniki nowego sondażu, przeprowadzonego przez wydawnictwo Wiley wśród pięciu tysięcy naukowców z ponad 70 krajów, wskazują, że większość badaczy przewiduje powszechne zastosowanie AI (w tym chatbotów) do różnorodnych zadań naukowych w ciągu najbliższych dwóch lat. Rośnie więc przekonanie, że narzędzia te staną się „stałym elementem” codziennej praktyki badawczej i publikacyjnej. Jednocześnie sami naukowcy zwracają uwagę, że bez odpowiedniego wsparcia (zarówno metodologicznego, jak i etycznego) nie zawsze będą w stanie w pełni i rozsądnie korzystać z możliwości AI.
Wielkie zainteresowanie, ograniczone zastosowania
Według raportu Wiley, aż 72% respondentów chciałoby w perspektywie dwóch lat używać AI do takich zadań, jak przygotowywanie manuskryptów czy usprawnianie pisowni i cytowań. Jednak jednocześnie okazuje się, że obecne faktyczne korzystanie z AI – choć częste w sferze osobistej – w codziennej pracy naukowej wcale nie jest tak rozległe, jak można by się spodziewać. Tylko 45% spośród ankietowanych w pierwszej fali przyznało, że rzeczywiście używa narzędzi AI w badaniach. Najpopularniejszym zastosowaniem jest automatyczna korekta językowa (np. wykrywanie błędów, tłumaczenie), a także wstępne porządkowanie bibliografii.
Wyniki ankiety różnią się w zależności od kraju i dziedziny. Na przykład badacze z Chin i Niemiec, a także przedstawiciele informatyki, częściej deklarują korzystanie z AI. Wydaje się, że najmłodsi naukowcy (dopiero rozpoczynający ścieżkę akademicką) bardziej niż doświadczeni profesorowie chcieliby wykorzystywać AI do m.in. tworzenia wniosków grantowych czy wyszukiwania potencjalnych współpracowników. Jak trafnie zauważa doktor Sebastian Porsdam Mann z Uniwersytetu Kopenhaskiego, może to wynikać z faktu, że dla mniej doświadczonych osób są to największe wyzwania i AI może zniwelować część tych „początkowych trudności”.
AI już teraz przewyższa ludzi w ponad 20 zadaniach?
W badaniu respondenci mieli też ocenić, kto – człowiek czy AI – radzi sobie lepiej z określonymi czynnościami. Ponad połowa wskazała, że AI przewyższa ich w co najmniej 20 typowych pracach naukowych, takich jak szybkie przeglądanie tysięcy artykułów, streszczanie wyników badań, wykrywanie błędów językowych czy analiza plagiatu. To sygnał, że wielu badaczy jest otwartych na to, by powierzyć robotom językowym rutynowe i czasochłonne zadania, tak aby móc skupić się na twórczym aspekcie nauki – formułowaniu pytań badawczych, projektowaniu eksperymentów, interpretacji danych.
Niemniej, przy zadaniach bardziej skomplikowanych, takich jak identyfikacja luk w literaturze czy wskazywanie odpowiedniego czasopisma do publikacji, nadal większość uznaje wyższość rozumowania ludzkiego. Nawet jeżeli doceniają zalety AI w szybkiej selekcji i wstępnym przetwarzaniu informacji, to jednak ufają bardziej własnemu doświadczeniu i osądowi w kwestiach, w których liczy się głębia interpretacji i kontekst branżowy.
Czy AI stanie się wiodącym trendem?
Autorzy raportu Wiley są przekonani, że „to nieuchronne” – AI w niedługim czasie stanie się standardem, zwłaszcza w zadaniach związanych z przeglądem literatury, formatowaniem publikacji czy rozpoznawaniem błędów. Do jakiego stopnia przełoży się to na wyższy poziom badań, a na ile będzie tylko zwiększać presję na jeszcze szybsze generowanie publikacji – to temat otwarty. W każdym razie, dane wskazują na rosnące oczekiwania co do rozwoju nowatorskich narzędzi, które jeszcze efektywniej zintegrują AI z codzienną praktyką naukową.
Potrzeba wsparcia i reguł
Choć wizja powszechnego korzystania z chatbotów i innych form AI brzmi pociągająco, wielu naukowców zgłasza obawy związane z jakością i etyką tych rozwiązań. Doceniają przyspieszenie pracy, ale podkreślają, że AI może np. wygenerować zmyślone cytowania czy „uśrednioną” parafrazę, która gubi istotne niuanse. Pojawiają się również pytania o zasady cytowania wkładu AI (kto jest autorem?), sposób kontroli założeń i modeli AI czy wreszcie ochronę danych wrażliwych.
Dlatego – według ankietowanych – naukowcy potrzebują większego wsparcia: zarówno od własnych instytucji, które mogłyby oferować szkolenia z wykorzystywania AI w sposób odpowiedzialny, jak i od twórców narzędzi, którzy powinni dbać o transparentność algorytmów oraz wyjaśniać ryzyka.
Praktyczne wnioski dla doktorantów
- Korzystaj, ale z umiarem: Wsparcie AI w pisaniu manuskryptów (np. korekta, automatyczne streszczenia) może zaoszczędzić Ci dużo czasu. Pamiętaj jednak, by sprawdzać poprawność generowanych tekstów i cytowań.
- Zwróć uwagę na ograniczenia: AI nie zawsze rozpozna kontekst Twojego badania, więc interpretacje i wnioskowanie naukowe to wciąż Twoja rola. Chatbot może pomóc, ale to Ty odpowiadasz za merytoryczną jakość pracy.
- Rozwijaj się w kontekście AI: Uczestnicz w szkoleniach (jeśli uczelnia je oferuje), śledź blogi i artykuły opisujące najlepsze praktyki. Ten trend będzie narastał, a wczesne opanowanie technik AI może stać się Twoją przewagą kompetencyjną.
- Pilnuj etyki i praw autorskich: Nie pozwól, by AI „generowało” wymyślone dane czy cytowania. Deklaruj, jeśli posługujesz się narzędziem w celu korekty językowej. Jeśli publikujesz, sprawdź, czy wydawnictwo ma jasne wytyczne co do roli AI w tworzeniu tekstu.
Podsumowując, najnowsze dane sugerują, że generatywna AI w ciągu kolejnych dwóch lat stanie się niemal powszechnym elementem naukowego ekosystemu — od tworzenia podsumowań, przez formatowanie, aż po wyszukiwanie współpracowników. Dla doktorantów oznacza to ogromne możliwości, a zarazem konieczność rozważnego korzystania i zachowania uczciwości badawczej. Jak zauważył jeden z cytowanych badaczy, „ludzie stojący na pozycjach, na które to wpłynie — a więc praktycznie wszyscy — muszą zacząć się tym poważnie zajmować już teraz”.