Organizacja bije na alarm. Ostrzega przed ryzykiem, jakie niesie pozwolenie ludziom na tworzenie filmów AI na niemal każdy temat wpisany w polecenie.
Branża technologiczna znów pędzi naprzód i coś po drodze psuje, a tym razem stawką jest nasza wspólna rzeczywistość oraz kontrola nad wizerunkiem, także po śmierci. To zasługa platform do generowania obrazów z pomocą sztucznej inteligencji, takich jak Sora 2 od OpenAI.
Typowy filmik z Sory, stworzony w aplikacji OpenAI i wrzucony na TikToka, Instagram, X i Facebooka, ma bawić na tyle, by skłonić do kliknięcia i udostępnienia. Może to być rapująca królowa Elżbieta II albo coś bardziej zwyczajnego i wiarygodnego.
Popularnym gatunkiem są fałszywe nagrania z kamerki przy drzwiach, pokazujące coś lekko niepokojącego – na przykład boa dusiciela na ganku czy aligatora zbliżającego się do niewzruszonego dziecka – a puentą bywa drobny szok, jak babcia krzycząca i okładająca zwierzę miotłą.
Coraz głośniejsze ostrzeżenia płyną jednak ze stron organizacji społecznych, naukowców i ekspertów. Zwracają uwagę na ryzyko pozwolenia ludziom tworzenia wideo AI na niemal każdy temat, jaki wpiszą w polu polecenia. Skutkiem jest wysyp wizerunków publikowanych bez zgody i realistycznych deepfake’ów, w morzu mniej szkodliwej „AI slop”.
OpenAI zaostrzyło zasady wobec kreacji AI z wizerunkami osób publicznych – m.in. Michaela Jacksona, Martina Luthera Kinga Jr. i Mistera Rogersa – wykonujących absurdalne rzeczy. Zrobiło to jednak dopiero po protestach spadkobierców i związku aktorów.
Organizacja pozarządowa Public Citizen domaga się teraz, by OpenAI wycofało Sorę 2 z obiegu publicznego. W liście wysłanym we wtorek do firmy i jej prezesa, Sama Altmana, napisano, że pośpieszna premiera, by wyprzedzić konkurencję, pokazuje „stały i niebezpieczny wzorzec: OpenAI pcha na rynek produkt z natury niebezpieczny albo pozbawiony niezbędnych zabezpieczeń”.
Sora 2, jak czytamy w liście, dowodzi „rażącego lekceważenia” bezpieczeństwa produktu, prawa ludzi do własnego wizerunku i stabilności demokracji. List trafił też do Kongresu USA.
OpenAI we wtorek nie odpowiedziało na prośby o komentarz.
Organizacja ostrzega o zagrożeniach
„Największym zmartwieniem jest potencjalne zagrożenie dla demokracji” – powiedział w rozmowie JB Branch, ekspert ds. polityki technologicznej w Public Citizen.
„Wchodzimy w świat, w którym ludzie nie mogą naprawdę ufać temu, co widzą. W polityce pojawiają się strategie, gdzie to pierwszy obraz czy pierwsze wideo, które trafia do obiegu, zostaje ludziom w pamięci”.
Branch, autor wtorkowego listu, widzi też szersze zagrożenia dla prywatności, które szczególnie dotykają wrażliwe grupy w sieci.
OpenAI blokuje nagość, ale Branch podkreśla, że „kobiety doświadczają w sieci nękania” w inny sposób, np. poprzez fetyszyzowane treści niszowe, które przechodzą przez ograniczenia aplikacji.
Redakcja 404 Media pisała ostatnio o zalewie filmów z Sory pokazujących duszenie kobiet.
OpenAI udostępniło nową Sorę na iPhone’ach ponad miesiąc temu. W ubiegłym tygodniu trafiła na telefony z Androidem w USA, Kanadzie oraz w kilku krajach Azji, m.in. w Japonii i Korei Południowej.
Najbardziej stanowczy sprzeciw płynie z Hollywood i szerzej z branży rozrywkowej, w tym z japońskiego rynku mangi.
OpenAI ogłosiło pierwsze większe zmiany zaledwie kilka dni po premierze. „Nadmierna moderacja jest dla użytkowników bardzo frustrująca” – przyznała firma, dodając, że ważne jest, by „zachować ostrożność, dopóki świat oswaja się z tą nową technologią”.
Następnie, 16 października, firma ogłosiła porozumienie z rodziną Martina Luthera Kinga Jr., zapobiegające „obraźliwym przedstawieniom” lidera ruchu praw obywatelskich, na czas dopracowywania zabezpieczeń. Kolejne porozumienie, 20 października, zawarto z aktorem z „Breaking Bad”, Bryanem Cranstonem, związkiem SAG-AFTRA oraz agencjami talentów.
„To wszystko dobrze, jeśli jesteś sławny” – stwierdził Branch. „To wpisuje się w schemat, w którym OpenAI reaguje na oburzenie bardzo wąskiej grupy”.
„Są skłonni coś wypuścić, a potem przepraszać” – dodał Branch. „Ale wiele z tych problemów to wybory projektowe, które można podjąć przed premierą”.
OpenAI mierzyło się z podobnymi zarzutami wobec swojego flagowego produktu, ChatGPT. Siedem nowych pozwów złożonych w ubiegłym tygodniu w USA zarzuca chatbotowi, że pchnął ludzi do samobójstw i szkodliwych urojeń, nawet gdy wcześniej nie mieli problemów ze zdrowiem psychicznym.
Pozwy, złożone w imieniu sześciu dorosłych i jednego nastolatka przez Social Media Victims Law Center i Tech Justice Law Project, twierdzą, że OpenAI świadomie przedwcześnie wypuściło w ubiegłym roku GPT-4o, mimo wewnętrznych ostrzeżeń, iż model był niebezpiecznie schlebiający i psychologicznie manipulacyjny.
Cztery z tych osób popełniły samobójstwo.
Public Citizen nie brała udziału w tych sprawach, ale Branch mówi, że widzi podobieństwa z pośpieszną premierą Sory.
Według niego „wciskają gaz do dechy bez oglądania się na szkody. Wiele z tego dało się przewidzieć. Wolą jednak wypuścić produkt, skłonić ludzi do pobierania go, uzależnić ich, zamiast zrobić to jak należy: wcześniej porządnie przetestować i pomyśleć o losie zwykłych użytkowników”.
OpenAI przez ostatni tydzień odpowiadało na zarzuty japońskiego stowarzyszenia branżowego reprezentującego słynnych twórców anime, takich jak Studio Ghibli Hayao Miyazakiego, oraz producentów gier, m.in. Bandai Namco i Square Enix.
OpenAI stwierdziło, że wielu fanów anime chce wchodzić w interakcje ze swoimi ulubionymi bohaterami, ale firma wprowadziła też zabezpieczenia, by nie można było generować znanych postaci bez zgody właścicieli praw autorskich.
„Współpracujemy bezpośrednio ze studiami i właścicielami praw, słuchamy opinii i uczymy się na podstawie tego, jak ludzie korzystają z Sory 2, także w Japonii, gdzie przemysły kultury i kreatywny są głęboko cenione” – przekazało OpenAI w oświadczeniu dotyczącym listu organizacji branżowej w ubiegłym tygodniu.