Cookie Consent by Privacy Policies Generator website
Menu

TikTok, Snapchat i Twitch zagrożone karą za brak ochrony użytkowników

TikTok, Snapchat i Twitch zagrożone karą za brak ochrony użytkowników
Platformy takie jak TikTok będą miały prawny obowiązek podjęcia działań dotyczących ochrony swoich użytkowników, którymi są głównie osoby małoletnie. (Fot. Getty Images)
Brytyjski regulator mediów Ofcom określił zakres działań, których podjęcia będzie wymagał od platform udostępniających nagrania wideo w celu lepszej ochrony użytkowników – informuje BBC. Okazuje się, że TikTok, Snapchat, Vimeo i Twitch nie reagują na zamieszczane na nich przekazy będące mową nienawiści lub związane z terroryzmem, rasizmem czy wykorzystywaniem seksualnym dzieci.
Reklama
Reklama

Platformy VSP (udostępniające materiały wideo) muszą teraz podjąć "odpowiednie środki", aby chronić swoich użytkowników - zadecydował Ofcom, który podkreślił, że jedna trzecia użytkowników spotkała się z nienawistnymi treściami na takich stronach.

Regulator będzie karać tych dostawców VSP, którzy naruszą wytyczne lub — w poważnych przypadkach — całkowicie wstrzyma ich usługi.

Platformy VSP będą musiały:

  • zapewnić i skutecznie egzekwować jasne zasady dotyczące zamieszczania treści,
  • ułatwić proces zgłaszania i składania skarg,
  • ograniczyć dostęp do stron dla dorosłych poprzez wprowadzenie rzetelnej weryfikacji wieku.

Ofcom obiecał, że w przyszłym roku sporządzi raport na temat tego, czy podmioty objęte zakresem dyrektywy — a jest ich w sumie 18 — podjęły odpowiednie kroki.

Konkretne kryteria ustawowe rozstrzygną, czy usługa spełnia definicję dostawcy VSP i czy podlega jurysdykcji Wielkiej Brytanii.

YouTube ma podlegać irlandzkiemu systemowi regulacyjnemu, ale wejdzie w zakres ustawy o bezpieczeństwie w sieci, która ma znacznie szersze uprawnienia do zwalczania przestępstw internetowych na dużych platformach technologicznych, takich jak Twitter, Facebook i Google, gdy tylko prawo to zacznie obowiązywać.

Ofcom poinformował, że jednym z jego głównych priorytetów w nadchodzącym roku będzie nawiązanie współpracy z dostawcami treści w celu ograniczenia ryzyka przesyłania materiałów związanych z seksualnym wykorzystywaniem dzieci.

Według organizacji Internet Watch Foundation, w 2020 roku nastąpił 77 proc. wzrost ilości treści tworzonych we własnym zakresie, a dotyczących nadużyć.

Zadaniem Ofcomu nie będzie ocena treści poszczególnych filmów. Regulator przyznaje, że ogromna ilość materiałów sprawia, że niemożliwym jest, by zapobiec każdemu przypadkowi nadużyć. Obiecuje jednak "rygorystyczne, ale sprawiedliwe" podejście do swoich nowych obowiązków.

Czytaj więcej:

Raport: Większość dzieci w UK śpi ze smartfonem

Raport NGO: Facebook i Google reklamowały tabletki "odwracające aborcję"

Założyciel Wikipedii: Facebook i Twitter "powinny korzystać z moderatorów-ochotników"

Senat USA: Facebook próbuje uzależniać dzieci od swoich produktów, które im szkodzą

Anglia: Dzieci nie będą mogły robić sobie botoksem "twarzy z Instagrama"

Wielkie koszty awarii Facebooka. "To dopiero początek kłopotów"

    Reklama
    Reklama
    Kurs NBP z dnia 19.04.2024
    GBP 5.0615 złEUR 4.3316 złUSD 4.0688 złCHF 4.4787 zł
    Reklama

    Sport


    Reklama
    Reklama