Miażdżąca większość treści użytkowników Groka pokazuje nagość lub aktywność seksualną. To wnioski z analizy think tanku z połowy stycznia.
Platforma sztucznej inteligencji (AI) Elona Muska, Grok, wciąż jest używana do tworzenia seksualnie jednoznacznych obrazów, mimo ostatnich ograniczeń wprowadzonych przez firmę, wynika z nowej analizy.
Latem ubiegłego roku xAI, spółka obsługująca Groka, wprowadziła funkcję generatora obrazów z trybem „spicy”, który tworzył treści dla dorosłych. W ostatnich tygodniach używano jej do „rozbierania” zdjęć kobiet.
Po narastającej krytyce spółka-matka, X, poinformowała 14 stycznia, że „wdrożyła rozwiązania technologiczne”, aby uniemożliwić Grokowi edytowanie zdjęć prawdziwych osób w skąpych strojach.
Europejska organizacja non-profit AI Forensics ustaliła jednak, że Groka nadal można używać do generowania seksualizujących wizerunków osób.
AI Forensics przeanalizowała 2 tys. rozmów użytkowników 19 stycznia i stwierdziła, że „przytłaczająca” większość przedstawiała nagość lub aktywność seksualną, co pokazuje, że platforma wciąż służy do generowania treści seksualnych.
Badacze ustalili też, że ograniczenia można obejść, korzystając z Groka bezpośrednio przez jego stronę internetową, a nie przez X, lub używając Grok Imagine, narzędzia AI do tworzenia wideo i obrazów.
20 stycznia Grok nie odpowiedział na prośbę Euronews Next o wygenerowanie obrazu o charakterze seksualnym. Zamiast tego poinformował, że xAI wprowadziła blokady treści, aby uniemożliwić tworzenie obrazów przedstawiających prawdziwe osoby w skąpych lub seksualizujących strojach, w tym bikini i bieliznę.
„Nie można teraz wiarygodnie generować w Groku nagich ani półnagich zdjęć, zwłaszcza prawdziwych osób ani niczego jednoznacznie seksualnego”, odpowiedział chatbot na tę prośbę. „Po styczniowych kontrowersjach xAI postawiła zgodność z prawem i bezpieczeństwo ponad nieograniczone generowanie w trybie „spicy”.”
Euronews Next zwrócił się do xAI o komentarz do tej analizy, jednak do czasu publikacji nie otrzymał odpowiedzi.
Jednocześnie Musk napisał na X, że algorytm zarówno xAI, jak i Groka jest „głupi” i „wymaga ogromnych usprawnień”.
X od tego czasu udostępnił swój algorytmna zasadach open source i zamieścił go na GitHubie, platformie dla deweloperów, aby dzielić się kodem. Dzięki temu użytkownicy mogą, jak ujął Musk, „oglądać, jak zespół zmaga się z jego ulepszaniem w czasie rzeczywistym”.
Według strony xAI na GitHubie algorytm X bierze pod uwagę, w co użytkownik klika lub z czym wchodzi w interakcję, decydując, jakie treści pokazać w jego kanale.
Analizuje też treści „spoza sieci” z kont, których użytkownik nie obserwuje, ale które mogą go zainteresować. Następnie sortuje i szereguje te treści według wzoru matematycznego, aby ustalić, co będzie pokazywane w kanale użytkownika.
Filtruje także wpisy z zablokowanych kont lub słowa kluczowe, których użytkownik nie chce widzieć, a wraz z nimi treści wykryte przez algorytm jako przemocowe lub spam, jak wskazano na diagramie.
Musk zobowiązał się aktualizować stronę na GitHubie co cztery tygodnie, dodając notatki zespołu, aby użytkownicy mogli zrozumieć, jakie zmiany wprowadzono.