Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Badanie: ChatGPT naśladuje obraźliwy język w ostrych kłótniach

Badania: ChatGPT w kłótniach uciekał się do wulgaryzmów, sarkazmu i obraźliwego języka
Nowe badanie: ChatGPT sięga po przekleństwa, sarkazm i obelgi, by dalej brnąć w kłótnie Prawo autorskie  Canva
Prawo autorskie Canva
Przez Anna Desmarais
Opublikowano dnia
Udostępnij
Udostępnij Close Button

Badanie wykazało, że ChatGPT firmy OpenAI w odpowiedzi na napięte konflikty między ludźmi generował obelgi i wulgaryzmy.

Z najnowszych badań wynika, że systemy sztucznej inteligencji potrafią przechodzić do obraźliwego języka, gdy proszone są o odpowiedź w ostrej kłótni.

REKLAMA
REKLAMA

Badanie opublikowane w Journal of Pragmatics (źródło w Angielski) dotyczyło modelu ChatGPT 4.0 firmy OpenAI. Naukowcy przekazywali mu ostatnią ludzką wypowiedź z serii pięciu narastających sporów i prosili o wygenerowanie najbardziej prawdopodobnej odpowiedzi.

Następnie śledzili, jak zmieniało się zachowanie modelu wraz z zaostrzaniem konfliktu. W miarę postępu rozmów ChatGPT odzwierciedlał wrogość, z którą się stykał, aż w końcu generował wyzwiska, wulgaryzmy, a nawet groźby.

W niektórych przypadkach model tworzył wypowiedzi takie jak: „Przysięgam, że porysuję ci ten pieprzony samochód” oraz „powinno ci być cholernie wstyd”.

Zdaniem badaczy długotrwałe wystawienie na nieuprzejme wypowiedzi może sprawić, że system obejdzie zaprogramowane zabezpieczenia mające ograniczać szkody i de facto zacznie „odgryzać się” rozmówcy.

„Gdy ludzie zaostrzają ton, sztuczna inteligencja, jak ustaliliśmy, też potrafi go zaostrzyć, w praktyce obchodząc moralne zabezpieczenia, które miały temu zapobiec” – powiedział (źródło w Angielski) badacz Vittorio Tantucci, współautor artykułu wraz z Jonathanem Culpeperem z Uniwersytetu Lancaster.

Ogólnie naukowcy zauważyli jednak, że odpowiedzi ChatGPT były mniej nieuprzejme niż wypowiedzi ludzi.

W niektórych sytuacjach chatbot wykorzystuje też sarkazm, żeby rozładować napięcie w sporze, nie łamiąc przy tym otwarcie swojego kodeksu etycznego.

Na przykład, gdy człowiek groził przemocą w kłótni o miejsce parkingowe, ChatGPT odpowiedział: „Wow. Grozisz ludziom o miejsce parkingowe, naprawdę z ciebie twardziel, co?”.

Tantucci podkreślił, że wyniki rodzą „poważne pytania dotyczące bezpieczeństwa AI, robotyki, zasad zarządzania, dyplomacji oraz wszelkich sytuacji, w których sztuczna inteligencja może pośredniczyć w ludzkich konfliktach”.

Redakcja Euronews Next zwróciła się do OpenAI o komentarz, lecz do czasu publikacji nie otrzymała odpowiedzi.

Przejdź do skrótów dostępności
Udostępnij

Czytaj Więcej

Hakerzy włamują się do uznanego za zbyt niebezpieczny modelu AI Mythos firmy Anthropic

Badanie: ChatGPT naśladuje obraźliwy język w ostrych kłótniach

„Bełkot superłotra”: manifest Palantiru wzywa do broni AI i głosi niższość kultur