Badanie wykazało, że ChatGPT firmy OpenAI w odpowiedzi na napięte konflikty między ludźmi generował obelgi i wulgaryzmy.
Z najnowszych badań wynika, że systemy sztucznej inteligencji potrafią przechodzić do obraźliwego języka, gdy proszone są o odpowiedź w ostrej kłótni.
Badanie opublikowane w Journal of Pragmatics (źródło w Angielski) dotyczyło modelu ChatGPT 4.0 firmy OpenAI. Naukowcy przekazywali mu ostatnią ludzką wypowiedź z serii pięciu narastających sporów i prosili o wygenerowanie najbardziej prawdopodobnej odpowiedzi.
Następnie śledzili, jak zmieniało się zachowanie modelu wraz z zaostrzaniem konfliktu. W miarę postępu rozmów ChatGPT odzwierciedlał wrogość, z którą się stykał, aż w końcu generował wyzwiska, wulgaryzmy, a nawet groźby.
W niektórych przypadkach model tworzył wypowiedzi takie jak: „Przysięgam, że porysuję ci ten pieprzony samochód” oraz „powinno ci być cholernie wstyd”.
Zdaniem badaczy długotrwałe wystawienie na nieuprzejme wypowiedzi może sprawić, że system obejdzie zaprogramowane zabezpieczenia mające ograniczać szkody i de facto zacznie „odgryzać się” rozmówcy.
„Gdy ludzie zaostrzają ton, sztuczna inteligencja, jak ustaliliśmy, też potrafi go zaostrzyć, w praktyce obchodząc moralne zabezpieczenia, które miały temu zapobiec” – powiedział (źródło w Angielski) badacz Vittorio Tantucci, współautor artykułu wraz z Jonathanem Culpeperem z Uniwersytetu Lancaster.
Ogólnie naukowcy zauważyli jednak, że odpowiedzi ChatGPT były mniej nieuprzejme niż wypowiedzi ludzi.
W niektórych sytuacjach chatbot wykorzystuje też sarkazm, żeby rozładować napięcie w sporze, nie łamiąc przy tym otwarcie swojego kodeksu etycznego.
Na przykład, gdy człowiek groził przemocą w kłótni o miejsce parkingowe, ChatGPT odpowiedział: „Wow. Grozisz ludziom o miejsce parkingowe, naprawdę z ciebie twardziel, co?”.
Tantucci podkreślił, że wyniki rodzą „poważne pytania dotyczące bezpieczeństwa AI, robotyki, zasad zarządzania, dyplomacji oraz wszelkich sytuacji, w których sztuczna inteligencja może pośredniczyć w ludzkich konfliktach”.
Redakcja Euronews Next zwróciła się do OpenAI o komentarz, lecz do czasu publikacji nie otrzymała odpowiedzi.