24 lutego 2026 r. przedstawicielka Fundacji “Instytut Cyfrowego Obywatelstwa”, dr Justyna Hofmokl, miała możliwość wziąć udział w wysłuchaniu w Parlamencie Euorpoejskim pt. „Protecting children online: Europe at a Crossroads”. Spotkanie było współorganizowane przez grupy EPP i Renew we współpracy z Fundacją Panoptykon. Punktem wyjścia do rozmowy stały się raporty ryzyka przygotowane przez bardzo duże platformy internetowe (VLOP), które zestawiono z wynikami badań niezależnych organizacji i doświadczeniami młodych użytkowników. Zaproszone platformy, Meta, TikTok i YouTube, nie wzięły udziału w debacie. Ich nieobecność stała się symbolicznym tłem dla dyskusji o rosnącej luce między deklaracjami bezpieczeństwa a realnym funkcjonowaniem platform cyfrowych.
Akt o usługach cyfrowych (DSA) miał wprowadzić jakościową zmianę: po raz pierwszy największe platformy zostały zobowiązane nie tylko do reagowania na pojedyncze naruszenia, lecz do identyfikowania i ograniczania ryzyk systemowych, w tym ryzyk dla dzieci i młodzieży.
Podczas wysłuchania zderzyły się dwa porządki. Z jednej strony, język raportów platform, pełen deklaracji o „najsilniejszych zabezpieczeniach w historii”. Z drugiej, dane i analizy pokazujące, że ochrona małoletnich pozostaje w dużej mierze fasadowa, a kluczowe mechanizmy generujące szkody nie zostały naruszone.
Platformy chętnie wskazują na wprowadzone limity czasu, przypomnienia o przerwach czy funkcje „idź spać”. Jednocześnie niezależne badania pokazują, że podstawowa architektura systemów: infinite scroll, autoplay czy hiperpersonalizowane feedy, pozostaje niezmieniona i nadal maksymalizuje czas spędzany w aplikacji. Reset Tech, we współpracy z YouGov, w badaniu europejskich 16- i 17-latków wykazał, że 93% nastolatków doświadcza co najmniej raz w tygodniu poczucia „utknięcia” w mediach społecznościowych, a niemal dwie trzecie – codziennie. Jedna piąta badanych odnotowała mniejszą liczbę przespanych godzin każdej nocy, a ponad 80% wskazało niekończące się strumienie treści i hiperpersonalizację feedu jako przyczynę główną przyczynę.
Podobne wnioski płyną z badań Amnesty International dokumentujących zjawisko tzw. „rabbit holes” – algorytmicznego wciągania młodych użytkowników w ciągi treści depresyjnych, autodestrukcyjnych czy promujących zaburzenia odżywiania (Driven Into Darkness, 2023; Dragged into the Rabbit Hole, 2025). Problem wynika z celowej konstrukcji systemów rekomendacyjnych, które podsyłają młodym osobom treści jak najbardziej angażujące i wzbudzające emocje. Narzędzia te wykorzystują mechanizmy psychologiczne, którym również dorośli z trudem potrafią się oprzeć. W tym kontekście apelowanie o „samodyscyplinę użytkowników” brzmi jak próba przerzucenia odpowiedzialności z projektantów systemów na ich ofiary.
Platformy twierdzą, że skutecznie moderują treści szkodliwe i ograniczają ich zasięg. Tymczasem badania Amnesty International, Reset Tech oraz 5Rights Foundation pokazują, że nieletni nadal są eksponowani na treści promujące anoreksję i samookaleczanie się oraz informacje obniżające nastrój i sprzyjające depresji. Co więcej, systemy rekomendacyjne aktywnie wzmacniają widoczność takich materiałów, a mechanizmy zgłaszania skutkują usunięciem jedynie niewielkiego odsetka zgłoszonych treści.
Badania nad systemami rekomendacji (np. Protecting Young Users on Social Media) wskazują, że różnice w ekspozycji między kontami nieletnich i dorosłych bywają niewielkie, a w niektórych przypadkach młodsi użytkownicy szybciej napotykają treści szkodliwe. Dane z Polski potwierdzają ten obraz: raport Dobre i złe wiadomości – życie online i offline a zdrowie psychiczne polskich nastolatków pokazuje, że uczniowie starszych klas szkoły podstawowej otrzymują w mediach społecznościowych informacje dotyczące samobójstwa nawet jeśli sami takich treści nie szukali.
Kolejnym wątkiem poruszanym w trakcie wysłuchania w PE była skuteczność mechanizmów weryfikacji wieku prezentowana przez platformy jako kluczowe narzędzie ochrony małoletnich. W rzeczywistości dominującym rozwiązaniem pozostaje samodeklaracja wieku przy rejestracji.
Raport Mind the Gap przytotowany przez Interface EU, wskazuje jednoznacznie, że badane serwisy nie wdrożyły solidnych mechanizmów weryfikacji wieku, a istniejące rozwiązania można łatwo obejść. Dane z badania Internet dzieci potwierdzają konsekwencje tego stanu rzeczy: ponad 500 tys. dzieci w wieku 7–12 lat korzysta z TikToka. W praktyce oznacza to, że formalna granica 13 lat ma charakter deklaratywny.
Rzadki konsensus polityczny
Podczas wysłuchania przedstawiciele różnych ugrupowań zasiadających w PE byli zgodni co do diagnozy: model biznesowy oparty na maksymalizacji uwagi jest strukturalnie sprzeczny z bezpieczeństwem dzieci. Również Komisja Europejska przyznała, że raporty ryzyka składane przez platformy są metodologicznie nieczytelne i niepoparte wystarczającymi danymi. Stąd zapowiedź stworzenia kanałów umożliwiających badaczom i organizacjom społecznym przekazywanie dowodów do egzekwowania DSA oraz wzmożenie prac nad Digital Fairness Act.
Wysłuchanie w Parlamencie Europejskim nie było kolejną debatą o „czasie przed ekranem”. Dotyczyło projektowania systemów, relacji między algorytmami rekomendacyjnymi, monetyzacją uwagi a realnym obowiązkiem ochrony małoletnich.
Zestawienie raportów VLOP z wynikami badań naukowców oraz organizacji pozarządowych pokazuje powtarzający się wzorzec: deklarowane narzędzia ochronne istnieją, ale ich wykorzystanie jest ograniczone, w wyniku czego kluczowe mechanizmy zaszyte w infrastrukturze platform pozostają nienaruszone.
Jeśli DSA ma być regulacją skuteczną, a nie wyłącznie symboliczną, fundamentem egzekucji muszą być rzetelne dane i mierzalne wskaźniki dostarczane przez platformy: rozkłady czasu użycia, ekspozycja na treści szkodliwe, skuteczność interwencji, rzeczywista liczba usuwanych kont nieletnich.