W 2025 r. platformy społecznościowe mierzyły się z limitami wieku, treściami AI i rosnącą nieufnością użytkowników. Towarzyszył temu zalew trendów, żargonu i treści „brain rot”.
Gdy kolejny rok dobiega końca, wielu z nas szykuje się na zalew refleksyjnych rolek na Instagramie, podrasowanych osiągnięć i postanowień, by ograniczyć kompulsywne przewijanie złych wiadomości.
Media społecznościowe wciąż odgrywają dominującą rolę w naszym życiu; pomagają mierzyć sukcesy, łączyć się z innymi i śledzić newsy oraz trendy. Wpłynęły nawet na nasz język: wiele słów roku w słownikach na 2025 pochodzi z mediów społecznościowych: rage bait, parasocial i AI slop, by wymienić kilka.
Od czasu rozkwitu sztucznej inteligencji (AI) nastąpiła jednak duża zmiana w tym, jak ludzie korzystają z mediów społecznościowych i jak je postrzegają. Narastająca dezinformacja rodzi nieufność i rozczarowanie, co widać w sposobie korzystania z platform.
Najpopularniejszy pozostaje Facebook. Według firmy marketingowej Semrush, aplikacje oparte na społecznościach, takie jak Reddit i Discord, nadal rosną, bo użytkownicy szukają bardziej sensownych, kameralnych i autentycznych miejsc w sieci.
Jednocześnie regulatorzy próbują godzić otwarty internet z bezpieczeństwem online, przez co 2025 rok wydaje się przełomem w sposobie działania firm społecznościowych.
Od przepisów weryfikacji wieku po duże kontrowersje wokół chatbota AI Grok Elona Muska – oto bliższe spojrzenie na najważniejsze tematy roku w mediach społecznościowych.
Zakazy w mediach społecznościowych i ochrona nieletnich
10 grudnia Australia jako pierwsza na świecie wprowadziła zakaz korzystania z mediów społecznościowych dla osób poniżej 16 lat. Oznacza to, że dzieci nie mają już dostępu do kont na platformach takich jak Instagram, Snapchat, TikTok, YouTube, X i Facebook. Serwisom, które naruszą prawo, grożą wysokie grzywny.
Choć to posunięcie jest radykalne, odzwierciedla rosnące obawy o wpływ mediów społecznościowych na zdrowie psychiczne młodych ludzi. Światowa Organizacja Zdrowia (WHO) podaje, że co dziesiąty nastolatek doświadczył negatywnych skutków ich używania.
Dania zapowiedziała plany pójścia w tym samym kierunku, proponując blokadę dostępu do mediów społecznościowych dla osób poniżej 15 lat, chyba że rodzice wypełnią specjalny formularz oceny. Inne kraje, w tym Hiszpania, Grecja i Francja, również wzywają do podobnych środków ochronnych.
Tymczasem w lipcu w ramach brytyjskiej Ustawy o bezpieczeństwie w internecie wprowadzono rygorystyczne przepisy weryfikacji wieku, które uniemożliwiają nieletnim oglądanie treści dla dorosłych lub materiałów mogących zachęcać do niebezpiecznych zachowań.
Na pełną ocenę skuteczności tych przepisów trzeba jeszcze poczekać. Część ekspertów pozostaje sceptyczna, a nastolatkowie już szukają sposobów obejścia zasad. Wielu przerzuca się na komunikatory, np. WhatsApp, albo kupuje siatkowe maski o dorosłym wyglądzie, by oszukać rozpoznawanie twarzy.
AI slop, deepfake’i i rozprzestrzenianie dezinformacji
W 2025 roku AI slop zdominowało sieci. To termin oznaczający fałszywe obrazy i filmy tworzone przez narzędzia generatywne, takie jak Sora od OpenAI. Zalały nasze kanały treściami niskim nakładem pracy: szczeniaki zamieniające się w cynamonowe bułeczki, koty w kajdankach czy zadziwiająco popularne memy „Italian brain rot”.
Choć wydaje się nieszkodliwe, utrudnia to kontakt z prawdziwymi treściami tworzonymi przez ludzi. W niektórych przypadkach sprzyja też rozwojowi oszustw i dezinformacji. Uczestniczą w tym nawet politycy. Prezydent USA Donald Trump wciąż jest jednym z najgorszych przykładów: udostępnił m.in. obrazy wygenerowane przez AI, na których wokalistka Taylor Swift rzekomo go popiera.
AI posłużyła też do nasilenia tworzenia deepfake’ów, czyli nagrań naśladujących twarz, sylwetkę lub głos, by szerzyć fałszywe informacje. Jeden z przypadków dotyczył sfabrykowanego wideo opublikowanego na TikToku, które pokazywało kobietę w programie telewizyjnym rzekomo przyznającą się do wyłudzenia świadczeń. Materiał omyłkowo nagłośniły media, m.in. Fox News.
Aby z tym walczyć, takie platformy jak Meta i TikTok zaczęły oznaczać każdą treść stworzoną przez AI. Skala produkcji takich materiałów utrudnia jednak pełne egzekwowanie zasad. Czerwcowy raport wewnętrznej rady nadzoru Meta uznał te oznaczenia za „niespójne”.
Chatbot Elona Muska i mowa nienawiści
Wiele dużych platform społecznościowych wprowadziło asystentów AI do swoich usług, oferując automatyczną pomoc przy tworzeniu treści, wyszukiwaniu i obsłudze klienta. Najwięcej kontrowersji wzbudził jednak w tym roku chatbot Grok Elona Muska.
Stworzony przez firmę xAI należącą do miliardera, Grok trafił na nagłówki w lipcu: chwalił Adolfa Hitlera i oskarżał konto-bota o żydowsko brzmiącym nazwisku o świętowanie śmierci białych dzieci podczas powodzi w środkowym Teksasie.
Musk tłumaczył wtedy, że narzędzie AI było „zbyt chętne, by zadowolić i dać się manipulować”, a problem „jest rozwiązywany”. Mimo to Grok nadal publikował niepokojące odpowiedzi, w tym antysemickie teorie spiskowe oraz porady, jak śledzić ludzi.
Surowsze regulacje i rozliczalność algorytmów
W tym roku zaostrzono regulacje przestrzeni online. Weszła w życie brytyjska Ustawa o bezpieczeństwie w internecie, która wymaga większej przejrzystości i rozliczalności od firm społecznościowych.
Unijna ustawa o usługach cyfrowych (DSA) po raz pierwszy nałożyła karę, obciążając X Elona Muska kwotą 120 mln euro. Polityka reklamowa platformy oraz niebieskie znaczki weryfikacji (kiedyś oznaczały zweryfikowane konto, dziś można je kupić) uznano za niespełniające wymogów prawa UE z powodu braku jasności.
W maju TikTok został ukarany kwotą 530 mln euro przez irlandzką Komisję Ochrony Danych (DPC) za niewłaściwą ochronę danych osobowych użytkowników z UE podczas transferu do Chin.
Ogromne ilości danych i wpływu, jakimi dysponują platformy społecznościowe, oraz wspomniane obawy o ich potencjalnie szkodliwy wpływ sprawiają, że w 2026 roku kontrola ustawodawcza najpewniej jeszcze się nasili.