Sztuczna inteligencja potrafiła przewidzieć cechy osobowości, m.in. ugodowość i stabilność emocjonalną, z dokładnością do 60 proc., wynika z nowego badania.
Sztuczna inteligencja potrafi przewidzieć osobowość użytkownika na podstawie historii rozmów – wynika z nowego badania.
We wstępnie opublikowanym badaniu (źródło w Angielski) naukowcy z ETH Zurich poprosili 668 użytkowników ChatGPT z USA i Wielkiej Brytanii, by udostępnili im kopie swojej historii rozmów. Na tej podstawie wytrenowali model SI, który miał wnioskować o cechach osobowości.
Badacze zebrali i przeanalizowali ponad 62 tys. rozmów, klasyfikując je według poruszanych tematów.
Wytrenowany model SI próbował potem oszacować prawdopodobieństwo występowania u użytkownika pięciu cech osobowości, znanych w psychologii jako „Wielka Piątka”: ugodowości, sumienności, stabilności emocjonalnej, ekstrawersji i otwartości na doświadczenie.
Uczestnicy przeszli też standardowy test psychologiczny, który miał określić ich główne cechy osobowości.
Jak stwierdzono w raporcie, dopracowany model SI potrafił trafnie rozpoznać cechy osobowości użytkowników z dokładnością do 61 proc. Najlepiej radził sobie z przewidywaniem ugodowości i stabilności emocjonalnej, gorzej z sumiennością.
SI była najskuteczniejsza wtedy, gdy miała do analizy dłuższą historię rozmów. Badanie sugeruje, że im częściej ktoś korzysta z SI, tym łatwiej można rozpoznać jego osobowość.
Zdaniem badaczy ryzyko dla pojedynczych osób jest niewielkie. Ostrzegają jednak przed „poważnymi zagrożeniami na dużą skalę”, jeśli dane o osobowości trafią w ręce osób o złych zamiarach.
Ich zdaniem takie informacje mogłyby posłużyć do „zakrojonych na szeroką skalę kampanii manipulacyjnych, szerzących dezinformację i/lub propagandę polityczną”.
Naukowcy mają nadzieję, że ich wyniki posłużą do stworzenia narzędzi ograniczających ryzyko nadmiernego udostępniania danych osobowych systemom SI, na przykład mechanizmu automatycznie usuwającego dane identyfikujące.