Duże modele językowe, jak ChatGPT, zwiększają liczbę artykułów badaczy słabiej znających angielski. Prace pisane przez AI rzadziej przechodzą recenzję.
W miarę jak naukowcy coraz częściej polegają na sztucznej inteligencji przy pisaniu, programowaniu, a nawet przy generowaniu pomysłów, nowe badanie sprawdza, jak AI zmienia badania akademickie.
To, co jeszcze niedawno brzmiało jak akademicka plotka, dziś odzwierciedla realną, mierzalną zmianę w publikacjach naukowych.
Badacze z Uniwersytetu Cornella w Stanach Zjednoczonych ustalili, że duże modele językowe (LLM), takie jak ChatGPT, zwiększają liczbę publikacji, zwłaszcza wśród naukowców, dla których angielski nie jest językiem ojczystym.
Jednak autorzy ostrzegają, że rosnąca liczba prac wspieranych przez AI utrudnia recenzentom, grantodawcom i decydentom odróżnienie wartościowych wyników od słabej jakości opracowań.
„To bardzo rozpowszechniony wzorzec, w różnych dziedzinach nauki: od nauk ścisłych i informatyki po nauki biologiczne i społeczne”, powiedział Yian Yin, autor korespondencyjny badania i adiunkt nauk informacyjnych w Cornell Ann S. Bowers College of Computing and Information Science.
„W naszym ekosystemie zachodzi duża zmiana, która wymaga bardzo poważnego namysłu, zwłaszcza ze strony tych, którzy decydują, jaką naukę wspierać i finansować”, dodał Yin.
Jak naukowcy badali pojawienie się prac wspieranych przez AI?
Badanie opublikowane w czasopiśmie Science przeanalizowało ponad 2 mln prac naukowych zamieszczonych w latach 2018–2024 na trzech dużych serwerach preprintów.
Te platformy udostępniają wstępne wersje artykułów przed formalną recenzją, co daje wgląd w to, jak badacze pracują w czasie rzeczywistym.
Aby ocenić wpływ AI na pisanie prac naukowych, zespół wyszkolił system AI do wykrywania tekstów prawdopodobnie generowanych przez LLM. Porównano prace sprzed 2023 roku, gdy narzędzia takie jak ChatGPT stały się powszechnie używane, z późniejszymi tekstami wykazującymi wyraźne oznaki wsparcia AI.
Dzięki temu podejściu zespół wskazał badaczy prawdopodobnie korzystających z AI, zmierzył, jak zmieniła się ich aktywność publikacyjna, oraz śledził, czy te prace były później przyjmowane przez czasopisma naukowe.
Wsparcie AI przynosi skok produktywności
Analiza wykazała wyraźny wzrost produktywności dzięki AI.
Naukowcy, którzy najpewniej korzystali z takich narzędzi, publikowali znacznie więcej prac niż ci, którzy tego nie robili.
Na jednym z dużych serwerów preprintów poświęconym fizyce i informatyce użytkownicy AI przygotowali o około jedną trzecią więcej prac. W biologii i naukach społecznych wzrost był jeszcze większy i sięgał ponad 50 proc.
Największe przyrosty odnotowano wśród badaczy, których ojczystym językiem nie jest angielski.
W niektórych azjatyckich instytucjach, w zależności od dyscypliny, naukowcy po wprowadzeniu narzędzi do pisania z AI publikowali od 40 do niemal 90 proc. więcej prac.
AI pomaga także w znajdowaniu lepszych źródeł. Zespół ustalił, że wyszukiwarki oparte na AI częściej podpowiadają nowsze artykuły i odpowiednie książki, zamiast starszych, często cytowanych prac preferowanych przez tradycyjne wyszukiwanie.
„Osoby korzystające z LLM docierają do bardziej zróżnicowanej wiedzy, co może napędzać bardziej kreatywne pomysły”, powiedział Keigo Kusumegi, pierwszy autor badania i doktorant na Wydziale nauk informacyjnych Uniwersytetu Cornella.
Jakość prac pisanych z pomocą AI budzi zastrzeżenia
Wzrost produktywności ma jednak cenę. Wiele tekstów tworzonych z pomocą AI wygląda efektownie, ale rzadziej przechodzi recenzję.
Na wszystkich trzech serwerach preprintów największe szanse na publikację miały prace prawdopodobnie napisane przez ludzi, które uzyskały wysokie wyniki w teście złożoności językowej.
Natomiast wysoko oceniane pod względem językowym prace najpewniej tworzone przez LLM miały mniejsze szanse na akceptację. To sugeruje, że mimo przekonującego języka recenzenci uznawali wiele z nich za mało wartościowe naukowo.
Autorzy badania uważają, że wpływ rosnącego polegania na AI będzie się poszerzał i że decydenci powinni wprowadzić nowe zasady, by uregulować szybko zmieniające się otoczenie technologiczne.
„Już dziś pytanie nie brzmi: »Czy używałeś AI?«. Pytanie brzmi: »Jak dokładnie jej używałeś i czy to było pomocne«”, powiedział Yin.