TikTok i Instagram już nie dla dzieci? Polska stoi przed przełomową decyzją, która może zmienić internet

11 grudnia 2025 roku do Senatu wpłynęła petycja dotycząca nowelizacji ustawy o świadczeniu usług drogą elektroniczną z 18 lipca 2002 roku. Autor dokumentu domaga się wprowadzenia jednoznacznego obowiązku ustalenia minimalnego wieku użytkowników serwisów społecznościowych na poziomie 16 lat.
Już 18 grudnia petycja została skierowana do senackiej Komisji Petycji, co oznacza, że nie pozostała jedynie symbolicznym głosem obywatela, lecz stała się przedmiotem oficjalnej analizy parlamentarnej. Na obecnym etapie nie jest to projekt ustawy, ale formalny postulat, który może zapoczątkować dalsze prace legislacyjne.
Ochrona zdrowia psychicznego
Kluczowym argumentem autora petycji, który zdecydował się zachować anonimowość, jest ochrona zdrowia psychicznego dzieci i młodszych nastolatków. W dokumencie podkreślono, że wiek 16 lat nie został wskazany przypadkowo. Według autora to istotny moment w rozwoju kory przedczołowej mózgu, odpowiedzialnej za kontrolę impulsów, podejmowanie racjonalnych decyzji oraz krytyczne myślenie. W petycji przywołano badania naukowe, w tym analizy American Psychological Association, wskazujące na związek między intensywnym korzystaniem z mediów społecznościowych a wzrostem depresji, stanów lękowych i uzależnień behawioralnych wśród młodych użytkowników.
Drugim filarem argumentacji jest ochrona danych osobowych dzieci. Obowiązujące w Polsce przepisy, wynikające z RODO, pozwalają na samodzielne wyrażenie zgody na przetwarzanie danych już od 13. roku życia. Zdaniem autora petycji to rozwiązanie nie przystaje do realiów współczesnej gospodarki cyfrowej. Wskazuje on, że osoby poniżej 16. roku życia często nie są w stanie w pełni zrozumieć długofalowych konsekwencji prawnych, finansowych, a także tych związanych z ochroną prywatności w sferze udostępniania danych.
Media społecznościowe a RODO
W dokumencie zwrócono uwagę na skalę przetwarzanych informacji, obejmującą m.in. dane biometryczne, lokalizacyjne, historię aktywności, profilowanie reklamowe oraz analizę zachowań użytkowników. Autor argumentuje, że podniesienie wieku do 16 lat byłoby zgodne z art. 8 RODO, który pozwala państwom członkowskim na ustanowienie wyższego progu ochrony dzieci w środowisku cyfrowym.
Petycja porusza również kwestie bezpieczeństwa w sieci. Autor wskazuje na szczególne narażenie młodszych użytkowników na cyberprzemoc, grooming, kontakt z treściami pornograficznymi, materiałami dotyczącymi samookaleczeń, a także dezinformacją. W dokumencie pojawia się także wątek wykorzystywania wizerunku dzieci, w tym przy użyciu technologii deepfake.
Według autora wprowadzenie twardej granicy wiekowej mogłoby nie tylko zwiększyć poziom ochrony dzieci w internecie, lecz także ograniczyć presję rówieśniczą i zachęcić młodszych użytkowników do większej aktywności poza światem cyfrowym, takiej jak sport, edukacja czy zajęcia pozaszkolne.
To początek nowego trendu?
Na takie rozwiązanie zdecydowały się władze Australii. Tam prawo, które zabrania korzystania z mediów społecznościowych osobom, które nie ukończyły jeszcze 16. roku życia, zaczęło obowiązywać 10 grudnia. Obecnie firmy oferujące dzieciom największe platformy społecznościowe muszą stosować obowiązkową weryfikację wieku. Za złamanie tych wymogów grożą wysokie kary finansowe. Co istotne, Australia jest pierwszym krajem na świecie, który zdecydował się na taki krok.
Skala problemu w Polsce
Według raportu NASK „Nastolatki 3.0” w Polsce na jednego nastolatka przypada około 6 kont w mediach społecznościowych. Najczęściej używanymi aplikacjami są Messenger, TikTok, Instagram i YouTube. Z badania wynika również, że średni czas korzystania z mediów społecznościowych w ciągu dnia przez nastolatków w Polsce wynosi 3 godziny i 23 minuty.
Medioznawczyni z UMCS dr Ilona Dąbrowska zauważa, że obecnie obowiązujące w Polsce przepisy nie są w stanie ochronić dzieci przed potencjalnymi zagrożeniami, których w sieci jest „bardzo wiele”. Według dr Dąbrowskiej współczesny rodzic mierzy się z bardzo dużym wyzwaniem, chcąc ograniczyć dostęp dzieci do niebezpiecznych treści. Jednym z rozwiązań jest blokada rodzicielska, ale – jak przyznaje medioznawczyni – nie jest to najskuteczniejszy wariant, ponieważ dzieci potrafią ominąć wspomniane ograniczenia.
Europa także widzi problem
Kwestia korzystania z mediów społecznościowych przez najmłodszych stała się przedmiotem debaty także w Parlamencie Europejskim. Z badania Eurobarometru „Stan Dekady Cyfrowej 2025” wynika, że ponad 9 na 10 Europejczyków dostrzega pilną potrzebę podjęcia przez władze publiczne działań mających na celu ochronę dzieci w internecie przed negatywnym wpływem mediów społecznościowych. 93 proc. respondentów twierdzi, że platformy społecznościowe źle wpływają na zdrowie psychiczne dzieci, a 92 proc. uważa, że są one narażone na cyberprzemoc i nękanie w sieci. Kolejne 92 proc. Europejczyków domaga się zapewnienia mechanizmów ograniczających treści nieodpowiednie dla ich wieku.
W listopadzie Parlament Europejski przyjął dokument wyrażający zaniepokojenie zagrożeniami dla zdrowia fizycznego i psychicznego osób nieletnich w sieci. Znalazła się w nim propozycja, by dostęp do mediów społecznościowych, platform wideo i wirtualnych asystentów AI, takich jak ChatGPT, miały dopiero 16-latki lub. W przypadku 13-latków taki dostęp może być możliwy, ale tylko za zgodą rodziców.
źr. wPolsce24 za Interia/ bankier.pl











