Obrazy przesyłane do chatbotów AI mogą być przechowywane przez nieokreślony czas i, gdy trafią w niepowołane ręce, posłużyć do podszywania się, oszustw oraz zakładania fałszywych kont w mediach społecznościowych.
Moda na karykatury tworzone przez sztuczną inteligencję (AI), które w barwnym obrazku pokazują wszystko, co chatbot „wie” o danej osobie, może wiązać się z poważnym ryzykiem dla bezpieczeństwa – ostrzegają eksperci ds. cyberbezpieczeństwa.
Użytkownicy wgrywają swoje zdjęcie z logo firmy lub informacjami o zajmowanym stanowisku i proszą ChatGPT firmy OpenAI, by na podstawie posiadanej o nich wiedzy stworzył karykaturę ich samych i ich pracy.
Eksperci ds. cyberbezpieczeństwa powiedzieli Euronews Next, że internetowe wyzwania, takie jak karykatury AI, mogą być dla oszustów prawdziwą kopalnią cennych danych. Jedno zdjęcie, zestawione z informacjami osobistymi, może zdradzić więcej, niż użytkownicy sobie uświadamiają.
„De facto wyręczasz oszustów – dajesz im wizualny obraz tego, kim jesteś” – mówi Bob Long, wiceprezes firmy Daon, zajmującej się weryfikacją wieku.
Jego zdaniem już sama treść takiej „zabawy” powinna zapalić czerwoną lampkę, bo „brzmi tak, jakby wymyślił ją świadomie oszust, który chce sobie ułatwić pracę”.
Co dzieje się ze zdjęciami po ich wgraniu?
Kiedy użytkownik przesyła obraz do chatbota AI, system analizuje go, by wyciągnąć z niego dane, takie jak emocje, otoczenie czy informacje mogące zdradzić lokalizację – wyjaśnia konsultant ds. cyberbezpieczeństwa Jake Moore. Te dane mogą potem być przechowywane przez nieokreślony czas.
Long dodaje, że zdjęcia zbierane od użytkowników mogą być wykorzystywane i przechowywane jako część zbiorów danych służących do trenowania generatorów obrazów opartych na AI.
Wyciek danych w firmie takiej jak OpenAI mógłby sprawić, że w ręce przestępców trafią wrażliwe informacje, w tym wgrywane zdjęcia i dane osobowe zbierane przez chatbota, które następnie można wykorzystać.
W niepowołanych rękach jedno zdjęcie w wysokiej rozdzielczości wystarczy, by stworzyć fałszywe konta w mediach społecznościowych lub realistyczne deepfake’i, które mogą posłużyć do oszustwa – ostrzega Charlotte Wilson, szefowa działu enterprise w izraelskiej firmie cyberbezpieczeństwa Check Point.
„Selfie pozwalają przestępcom przejść od ogólnych przekrętów do spersonalizowanego, bardzo przekonującego podszywania się pod kogoś” – mówi.
Ustawienia prywatności OpenAI stanowią, że wgrywane obrazy mogą być wykorzystywane do ulepszania modelu, co obejmuje także jego trenowanie. Zapytany o zasady prywatności modelu, ChatGPT doprecyzował jednak, że nie oznacza to umieszczania każdego zdjęcia w publicznej bazie danych.
Chatbot wyjaśnił, że wykorzystuje raczej wzorce wynikające z treści użytkowników, by dopracować sposób, w jaki system generuje obrazy.
Jak bezpiecznie brać udział w trendach opartych na AI
Tym, którzy mimo to chcą podążać za trendem, eksperci radzą ograniczyć zakres udostępnianych informacji.
Wilson podkreśla, że nie należy wgrywać zdjęć ujawniających jakiekolwiek dane identyfikujące.
„Kadr przytnij ciasno, tło zostaw jednolite. Nie pokazuj identyfikatorów, mundurów, smyczy służbowych, wskazówek dotyczących miejsca ani niczego, co łączy cię z pracodawcą czy codziennymi nawykami” – wylicza.
Wilson przestrzega też przed podawaniem w poleceniach zbyt wielu danych osobowych, na przykład nazwy stanowiska, miasta czy pracodawcy.
Tymczasem Moore zaleca, by przed włączeniem się w taki trend przejrzeć ustawienia prywatności, w tym możliwość wyłączenia wykorzystywania danych do trenowania AI.
OpenAI udostępnia portal prywatności, który pozwala użytkownikom zrezygnować z wykorzystywania ich danych w treningu AI poprzez wybranie opcji „do not train on my content”.
Można też wyłączyć wykorzystywanie do treningu tekstowych rozmów z ChatGPT, dezaktywując ustawienie „improve the model for everyone”.
Zgodnie z prawem unijnym użytkownicy mogą zażądać usunięcia swoich danych osobowych gromadzonych przez firmę. OpenAI zaznacza jednak, że część informacji może zostać zachowana także po ich usunięciu – w celu przeciwdziałania oszustwom, nadużyciom i zagrożeniom dla bezpieczeństwa.