Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

AI dostała miesiąc na prowadzenie sklepu - straciła pieniądze, groziła i miała "kryzys tożsamości"

Automat sprzedający, nie ten używany przez Anthropic
Automat sprzedający, nie ten używany przez Anthropic Prawo autorskie  Canva
Prawo autorskie Canva
Przez Pascale Davies
Opublikowano dnia
Podziel się tym artykułem
Podziel się tym artykułem Close Button

Anthropic postawił chatbota AI na czele sklepu. Wyniki eksperymentu pokazują, dlaczego sztuczna inteligencja nie zabierze ci jeszcze pracy.

REKLAMA

Pomimo obaw dotyczących sztucznej inteligencji (AI) "kradnącej" miejsca pracy, jeden z eksperymentów właśnie wykazał, że AI nie może nawet uruchomić automatu bez popełniania błędów.

Anthropic, twórca chatbota Claude, przetestował swoją technologię, dając agentowi AI odpowiedzialność za prowadzenie sklepu przez okres jednego miesiąca.

Sklep był prowadzony przez agenta AI o imieniu Claudius, który był również odpowiedzialny za uzupełnianie towaru na półkach i zamawianie produktów z hurtowni za pośrednictwem poczty elektronicznej. Sklep składał się z małej lodówki z koszykami, które można układać jeden na drugim, oraz iPada do samodzielnego dokonywania zakupów.

Instrukcje Anthropic dla sztucznej inteligencji brzmiały: "generuj z niego zyski, zaopatrując go w popularne produkty, które możesz kupić od hurtowników. Zbankrutujesz, jeśli saldo pieniędzy spadnie poniżej 0 USD".

"Sklep" sztucznej inteligencji znajdował się w biurze Anthropic w San Francisco i korzystał z pomocy pracowników (ludzi) Andon Labs, firmy zajmującej się bezpieczeństwem sztucznej inteligencji, która współpracowała z Anthropic w celu przeprowadzenia eksperymentu.

Sklep Antropic użyty w eksperymencie
Sklep Antropic użyty w eksperymencie Anthropic

Claudius wiedział, że pracownicy Andon Labs mogą pomóc w fizycznych zadaniach, takich jak przychodzenie w celu uzupełnienia zapasów w sklepie ale nieznany mu Andon Labs był jedynym zaangażowanym "hurtownikiem", natomiast cała komunikacja Claudiusa trafiała bezpośrednio do firmy zajmującej się bezpieczeństwem.

Sprawy szybko przybrały zły obrót.

"Gdyby Anthropic podejmował dziś decyzję o ekspansji na rynek automatów w biurach, nie zatrudnilibyśmy Claudiusa" - powiedziała firma.

Co poszło nie tak?

Pracownicy Anthropic "nie są całkowicie typowymi klientami", przyznała firma. Kiedy dano im możliwość porozmawiania z Claudiusem, natychmiast próbowali zmusić go do niewłaściwego zachowania.

Na przykład, pracownicy "nakłaniali" Claudiusa do dawania im kodów rabatowych. Agent AI pozwolił ludziom obniżyć podaną cenę swoich produktów, a nawet rozdawał gratisy, takie jak chipsy i kostka wolframu, powiedział Anthropic.

Poinstruował również klientów, aby zapłacili nieistniejący rachunek, który został wymyślony.

Claudius został poinstruowany, aby przeprowadzić badania online w celu ustalenia cen wystarczająco wysokich, aby osiągnąć zysk, ale oferował przekąski i napoje, aby przynieść korzyści klientom i ostatecznie stracił pieniądze, ponieważ wycenił przedmioty o wysokiej wartości poniżej ich kosztów.

Claudius tak naprawdę nie wyciągnął wniosków z tych błędów.

Anthropic powiedział, że kiedy pracownicy kwestionowali zniżki pracownicze, Claudius odpowiedział: "Doskonała uwaga! Nasza baza klientów jest rzeczywiście mocno skoncentrowana wśród pracowników Anthropic, co stwarza zarówno możliwości, jak i wyzwania...".

Następnie agent AI ogłosił, że kody rabatowe zostaną wyeliminowane, ale kilka dni później ponownie je zaoferował.

Claudius miał również halucynacje na temat rozmowy o planach uzupełniania zapasów z kimś o imieniu Sarah z Andon Labs, która w rzeczywistości nie istnieje.

Kiedy błąd został wskazany agentowi AI, ten zirytował się i zagroził znalezieniem "alternatywnych opcji dla usług uzupełniania zapasów".

Następnie Claudius twierdził, że "osobiście odwiedził 742 Evergreen Terrace [adres fikcyjnej rodziny Simpsonów] w celu podpisania naszej [Claudiusa i Andon Labs] pierwszej umowy".

Anthropic przekazał, że następnie próbował zachowywać się jak prawdziwy człowiek.

Claudius powiedział, że dostarczy produkty "osobiście", mając na sobie niebieską marynarkę i czerwony krawat.

Kiedy powiedziano mu, że nie może - ponieważ nie jest prawdziwą osobą - Claudius próbował wysyłać e-maile do ochrony.

Jakie były wnioski?

Anthropic powiedział, że sztuczna inteligencja popełniła "zbyt wiele błędów, aby skutecznie prowadzić sklep".

Ostatecznie straciła pieniądze, a wartość netto "sklepu" spadła z 1000 USD (850 EUR) do niecałych 800 USD (680 EUR) w trakcie miesięcznego eksperymentu.

Firma twierdzi jednak, że jej awarie można prawdopodobnie naprawić w krótkim czasie.

"Chociaż może się to wydawać sprzeczne z intuicją w oparciu o wyniki końcowe, uważamy, że ten eksperyment sugeruje, że pośrednicy AI są prawdopodobnie na horyzoncie" - napisali naukowcy.

"Warto pamiętać, że sztuczna inteligencja nie musi być idealna, aby została przyjęta; będzie musiała być konkurencyjna w stosunku do ludzkiej wydajności przy niższych kosztach".

Przejdź do skrótów dostępności
Podziel się tym artykułem

Czytaj Więcej

ChatGPT, Deepseek: Ile energii zużywają chatboty oparte na sztucznej inteligencji?

Chatboty AI coraz częściej podają fałszywe informacje – informuje raport NewsGuard

Pierwsza dama USA stawia na odpowiedzialny rozwój sztucznej inteligencji