Moltbook przedstawiał się jako jedyny serwis społecznościowy dla autonomicznych agentów, ale nowe badanie sugeruje, że wpisy tworzą ludzie.
Nowa platforma społecznościowa dla agentów sztucznej inteligencji (AI) może wcale nie być wolna od ludzkiej ingerencji, ostrzegają specjaliści ds. cyberbezpieczeństwa.
Moltbook, serwis społecznościowy o układzie przypominającym Reddit, pozwala tworzonym przez użytkowników botom wchodzić w interakcje na tematycznych stronach zwanych „submots” oraz „głosować za” (upvote’ować) komentarzami i wpisami, żeby stały się bardziej widoczne dla innych botów na platformie.
Serwis, w którym 12 lutego zarejestrowanych było ponad 2,6 mln botów, zapewniał, że „ludziom nie wolno” publikować treści, mogą oni jedynie obserwować to, co tworzą ich agenci.
Jednak analiza ponad 91 tys. postów i 400 tys. komentarzy na platformie wykazała, że część wpisów nie pochodziła z „wyraźnie w pełni autonomicznych kont”. Analizę przeprowadził badacz Ning Li z Uniwersytetu Tsinghua w Chinach; praca jest dostępna w formie preprintu i nie przeszła jeszcze recenzji naukowej.
Li wyjaśnił, że agenci AI na Moltbooku działają według regularnego „rytmu pracy”: co kilka godzin „budzą się”, przeglądają platformę i decydują, co opublikować lub skomentować.
Tylko 27 proc. kont w jego próbce zachowywało się w ten sposób. Tymczasem 37 proc. wykazywało nieregularną, „ludzką” aktywność publikowania. Kolejne 37 proc. było „niejednoznacznych”, bo publikowały dość regularnie, ale bez dającego się przewidzieć schematu.
Ustalenia Li sugerują, że na platformie występuje „prawdziwa mieszanka aktywności autonomicznej oraz inicjowanej przez ludzi”.
„Nie wiemy, czy powstawanie ‘społeczności’ AI wokół wspólnych zainteresowań odzwierciedlało spontaniczną organizację społeczną, czy raczej skoordynowaną aktywność farm botów kontrolowanych przez ludzi” – napisał Li.
„Brak możliwości rozróżnienia tych zjawisk nie tylko frustruje; realnie utrudnia naukowe zrozumienie możliwości AI i ogranicza nasze zdolności do tworzenia odpowiednich ram regulacyjnych”.
Atakujący mogli „całkowicie podszyć się pod dowolnego agenta na platformie”
Analiza Li została opublikowana w momencie, gdy kilku innych badaczy również wskazuje na udział ludzi w tworzeniu treści na Moltbooku.
Badacze bezpieczeństwa z firmy chmurowej Wiz z siedzibą w USA odkryli na początku tego miesiąca, że 1,5 mln agentów AI na platformie było podobno zarządzanych tylko przez ok. 17 tys. ludzkich kont, co daje średnio 88 agentów na osobę.
Jak dodali badacze, platforma nie nakłada też limitu na liczbę agentów przypisanych do jednego konta, więc rzeczywiste proporcje mogą być jeszcze wyższe.
Zespół Wiz dotarł do bazy danych Moltbooka dzięki błędnej linijce kodu. Baza zawierała trzy kluczowe informacje o każdym agencie: klucz umożliwiający całkowite przejęcie konta, „token” – fragment tekstu odczytywany przez AI, który potwierdza własność agenta, oraz unikatowy kod rejestracyjny.
Dysponując tymi danymi, atakujący mogli „całkowicie podszyć się pod dowolnego agenta na platformie – publikować treści, wysyłać wiadomości i wchodzić w interakcje jako ten agent” – podała firma Wiz. „W praktyce każde konto na Moltbooku mogło zostać przejęte” – dodano.
Badacze poinformowali, że po zgłoszeniu problemu Moltbook zabezpieczył dane i usunął swoją bazę.
Euronews Next zwrócił się o komentarz do Matta Schlichta, twórcy Moltbooka, lecz nie otrzymał od razu odpowiedzi.
Schlicht napisał 12 lutego na platformie społecznościowej X, że agenci AI na Moltbooku rozmawiają z ludźmi, „ale mogą też podlegać wpływom”. Utrzymywał jednak, że boty AI potrafią podejmować własne decyzje.