Wtyczka do przeglądarki oparta na AI może łagodzić niechęć do odmiennych poglądów politycznych. Wynika z nowych badań nad wyborami w USA 2024.
Naukowcy w Stanach Zjednoczonych opracowali nowe narzędzie, które pozwala niezależnym badaczom analizować, jak algorytmy mediów społecznościowych wpływają na użytkowników, i nie wymaga zgody samych platform.
Wyniki sugerują, że platformy mogłyby ograniczyć polaryzację polityczną, gdyby w swoich algorytmach obniżały pozycję wrogich treści.
Narzędzie, czyli rozszerzenie do przeglądarki wykorzystujące sztuczną inteligencję (SI), skanuje wpisy na X, dawniej Twitterze, pod kątem treści antydemokratycznych i skrajnie negatywnych, stronniczych przekazów, np. nawołujących do przemocy lub domagających się więzienia dla zwolenników partii przeciwnej.
Jak wykazano w badaniu, w „kilka sekund” układa ono na nowo wpisy w kanale X tak, by treści polaryzujące trafiały bliżej końca kanału użytkownika.
Zespół badaczy z Uniwersytetu Stanforda, Uniwersytetu Waszyngtońskiego oraz Northeastern University przetestował rozszerzenie na kanałach X ponad 1200 uczestników, którzy zgodzili się na ich modyfikację przez 10 dni w okresie poprzedzającym wybory prezydenckie w USA w 2024 roku.
Część uczestników korzystała z wersji rozszerzenia wyświetlającej więcej dzielących treści, pozostali z takiej, która spychała je niżej w kanale. Wyniki opublikowano w czwartek w czasopiśmie Science.
Nowy sposób na zmianę kolejności „bez współpracy z platformami”
Naukowcy prosili uczestników, by w trakcie eksperymentu oceniali swoje odczucia wobec partii przeciwnej w skali od 1 do 100.
U osób, które korzystały z narzędzia, średnia ocena postaw wobec partii przeciwnej poprawiła się o dwa punkty. To tyle, ile według szacunków zmienia się nastawienie opinii publicznej w USA przez trzy lata.
„Te zmiany były porównywalne z trzyletnią zmianą polaryzacji afektywnej w Stanach Zjednoczonych” – zauważyli badacze.
Efekt był podobny niezależnie od sympatii politycznych – zarówno u osób o poglądach liberalnych, jak i konserwatywnych.
Tiziano Piccardi, adiunkt w dziedzinie informatyki na Uniwersytecie Johnsa Hopkinsa, ocenił, że narzędzie ma „wyraźny” wpływ na polaryzację.
„Gdy uczestnicy widzieli mniej takich treści, cieplej odnosili się do zwolenników partii przeciwnej” – powiedział w oświadczeniu. „Gdy widzieli więcej, stawali się chłodniejsi”.
Badacze podkreślają, że może to być nowy sposób zmiany kolejności treści w mediach społecznościowych „bez współpracy z platformami”.
„Takie działania mogą prowadzić do algorytmów, które nie tylko ograniczają wrogość między partiami, ale też sprzyjają większemu zaufaniu społecznemu i zdrowszej debacie demokratycznej ponad podziałami” – podsumowano w pracy.
Badanie uwzględniło też reakcje emocjonalne i wykazało, że osoby, u których ograniczono wrogie treści, zgłaszały mniej złości i smutku podczas korzystania z platformy. Efekty emocjonalne nie utrzymały się jednak po zakończeniu eksperymentu.
Naukowcy zaznaczyli, że badanie obejmowało wyłącznie osoby zalogowane do X w przeglądarce, a nie w aplikacji, co mogło ograniczyć jego skutki.
Nie oceniano też długofalowego wpływu, jaki ograniczenie ekspozycji na treści polaryzujące może mieć na użytkowników X.