Unia Europejska przyspiesza prace nad systemowym rozwiązaniem, które ma realnie ograniczyć dostęp osób nieletnich do platform społecznościowych. Komisja Europejska kończy przygotowania do wdrożenia obowiązkowego mechanizmu weryfikacji wieku użytkowników, który będzie stosowany we wszystkich państwach członkowskich i obejmie największe serwisy społecznościowe działające na terenie UE.
Nowe narzędzie ma umożliwić skuteczne sprawdzanie wieku użytkowników takich platform jak Facebook, TikTok czy Instagram, bez pozostawiania tej odpowiedzialności wyłącznie po stronie samych firm technologicznych. Komisja zakłada, że mechanizm stanie się powszechnie dostępny jeszcze w tym roku, a państwa członkowskie będą zobowiązane udostępnić go swoim obywatelom.
Impulsem do przyspieszenia unijnych działań była decyzja Francji, która przyjęła przepisy zakazujące korzystania z serwisów społecznościowych osobom poniżej 15. roku życia. Tym samym Francja dołączyła do niewielkiej grupy państw, które zdecydowały się na tak daleko idące ograniczenia – wcześniej podobne rozwiązania przyjęła Australia, gdzie granica wieku została ustalona na 16 lat.
Komisja Europejska nie kwestionuje prawa państw członkowskich do wprowadzania krajowych regulacji, o ile są one zgodne z unijnym prawem. Jednocześnie Bruksela jasno sygnalizuje, że rozwiązania rozproszone i różniące się między krajami nie są długofalowo wystarczające, stąd pomysł jednolitego narzędzia obowiązującego w całej UE.
Jedno narzędzie, wspólne zasady
Nowy mechanizm weryfikacji wieku ma być neutralny technologicznie i możliwy do zastosowania zarówno przez administrację publiczną, jak i prywatne platformy. Jeśli dana firma posiada już własne skuteczne narzędzie, będzie mogła z niego korzystać, jednak w przeciwnym razie zostanie zobowiązana do wdrożenia rozwiązania opracowanego na poziomie unijnym.
Komisja równolegle pracuje nad powołaniem zespołu ekspertów, który ma doradzać w sprawie dalszych regulacji dotyczących ochrony nieletnich w sieci. Celem jest nie tylko ograniczenie dostępu do mediów społecznościowych, ale także zmniejszenie ryzyka kontaktu dzieci z treściami szkodliwymi, w tym pornografią czy przemocą.
Unijne instytucje podkreślają, że działania wpisują się w szerszą strategię ochrony najmłodszych użytkowników internetu, zapisaną już w Digital Services Act. Akt o usługach cyfrowych nakłada na największe platformy internetowe dodatkowe obowiązki związane z bezpieczeństwem, moderacją treści i odpowiedzialnością za algorytmy.
Statystyki, które docierają do decydentów, są alarmujące – w wielu krajach Unii dzieci w wieku 12–13 lat regularnie mają styczność z treściami przeznaczonymi wyłącznie dla dorosłych. Dla Komisji Europejskiej to wyraźny sygnał, że dotychczasowe mechanizmy samoregulacji branży technologicznej nie spełniają swojej roli.
Jeśli plany Komisji zostaną zrealizowane zgodnie z harmonogramem, już w 2026 roku korzystanie z mediów społecznościowych w UE będzie wiązało się z realną, a nie deklaratywną weryfikacją wieku. To jedna z najpoważniejszych zmian w funkcjonowaniu platform od lat i jednocześnie sygnał, że Unia Europejska coraz śmielej ingeruje w cyfrową przestrzeń w imię ochrony nieletnich.
Dla branży technologicznej oznacza to nowe obowiązki i koszty. Dla rodziców – potencjalnie skuteczniejsze narzędzie ochrony dzieci. A dla użytkowników internetu – kolejny krok w stronę bardziej regulowanego, ale też bezpieczniejszego cyfrowego ekosystemu.






