Rząd zmusi media społecznościowe do usuwania niebezpiecznych treści
Zgodnie z przedstawionym przez minister ds. cyfryzacji, kultury i mediów Nicky Morgan oraz minister spraw wewnętrznych Priti Patel planem, który jest efektem konsultacji społecznych, Ofcom będzie miał uprawnienia do wymuszania na nadawcach treści internetowych przestrzegania obowiązku dozoru, czyli niezwłocznego usuwania niebezpiecznych, nielegalnych i szkodliwych treści, w szczególności o związanych z terroryzmem i wykorzystywaniem dzieci.
"Platformy internetowe będą musiały zapewnić szybkie usuwanie niezgodnych z prawem treści i zminimalizować ryzyko ich pojawienia się, przy czym szczególnie zdecydowane działania będą dotyczyły treści o charakterze terrorystycznym i seksualnego wykorzystywania dzieci w internecie" - wskazano.
"Choć internet może być używany do łączenia ludzi i napędzania innowacji, wiemy, że może być również kryjówką dla przestępców, w tym pedofilów, i powodować ogromne szkody. Dlatego też właściwe jest, abyśmy mieli silny organ regulacyjny, który zapewniłby, że firmy z sektora mediów społecznościowych będą wypełniały swoje obowiązki wobec podatnych na zagrożenia użytkowników" - przekazała w wydanym oświadczeniu Patel.
"Damy organowi regulacyjnemu uprawnienia, których potrzebuje, aby przewodzić walce o internet, który pozostanie dynamiczny i otwarty, ale gdzie będzie ochrona, odpowiedzialność i transparentność, na którą ludzie zasługują" - zapewniła z kolei Morgan.
Rozporządzenie będzie miało zastosowanie wyłącznie do firm, które zezwalają na udostępnianie treści generowanych przez użytkowników - np. poprzez komentarze, fora lub udostępnianie wideo - czyli w szczególności do takich firm jak Facebook, Twitter, YouTube czy Snapchat. Według szacunków rządu będzie ono dotyczyło mniej niż 5 proc. przedsiębiorstw w Wielkiej Brytanii.
Podkreślono, że te regulacje nie będą stanowić ograniczenia wolności wypowiedzi i nie będą zabraniały osobom dorosłym dostępu do treści zgodnych z prawem, które dla niektórych mogą być obraźliwe, ani ich zamieszczania. Zamiast tego firmy będą zobowiązane do wyraźnego określenia w jasny i zrozumiały sposób, jakie treści i zachowania są dopuszczalne na ich stronach internetowych oraz do skutecznego, konsekwentnego i transparentnego egzekwowania tego.
Wyjaśniono też, że rząd wyznaczy poprzez ustawę ogólny kierunek działania, ale decyzje dotyczące procesów i procedur będą podejmowane przez Ofcom, a regulacje mają być elastyczne, tak aby mogły być szybko dostosowywane do pojawiania się w przyszłości nowych zagrożeń lub technologii. Do Ofcomu należeć będzie monitorowanie nowych i pojawiających się zagrożeń w sieci oraz podejmowanie odpowiednich działań w zakresie egzekwowania prawa.
The UK government has announced plans to grant the country's broadcasting authority broad new powers in regulating the spread of harmful content across social media platforms.https://t.co/RApfr8b0fW
— EURACTIV (@EURACTIV) February 12, 2020
Ofcom jest regulatorem rynku radiowo-telewizyjnego w Wielkiej Brytanii i ma prawo do nakładania kar finansowych, a w przypadku powtarzających się wykroczeń również do odbierania licencji nadawcom. W oświadczeniu rządu zapowiedziano, że szczegółowy plan regulacji zostanie przedstawiony na wiosnę, wtedy też sprecyzowane zostaną kompetencje Ofcomu w kwestii nadzoru nad mediami społecznościowymi.
Dotychczas firmy z sektora mediów społecznościowych w dużej mierze same decydowały, co jest dopuszczalną treścią, ale od dłuższego czasu pojawiały się w Wielkiej Brytanii wezwania do odgórnego wprowadzenia bardziej przejrzystych regulacji. Wzmogły się one zwłaszcza po głośnej sprawie śmierci 14-letniej Molly Russell, która w 2017 roku odebrała sobie życie pod wpływem zamieszczonych na Instagramie materiałów na temat depresji i samobójstwa.
Czytaj więcej:
BBC: Media społecznościowe mają ponosić odpowiedzialność za szkodliwe treści