Media: Pedofile używają AI do tworzenia materiałów przedstawiających wykorzystywanie dzieci
Oprogramowanie Stable Diffusion umożliwia człowiekowi opisanie obrazu za pomocą słów, które program następnie przetwarza. Obecnie, jak twierdzi portal BBC, program jest używany do tworzenia realistycznych obrazów wykorzystywania seksualnego dzieci, w tym gwałtów na niemowlętach. Zespoły dochodzeniowe brytyjskiej policji twierdzą, że już napotykają takie treści w internecie.
Program został stworzony w ramach globalnej współpracy między naukowcami i wieloma firmami, a w kodzie zapisano blokady, które ograniczają możliwe do tworzenia treści. Jednak w 2022 roku udostępniono publicznie wcześniejszą wersję "open source", która pozwalała użytkownikom na usunięcie wszelkich filtrów i "wytrenowanie" programu do tworzenia dowolnych obrazów, w tym także zawierających nielegalne treści.
Paedophiles are using AI to create and sell realistic child sexual abuse material.
— FutureAI (@FutureAI03) June 28, 2023
They use AI technology to make the images look real.
Some paedophiles pay for access to these images on popular websites.
They have subscriptions to accounts on sites like Patreon.
The UK… pic.twitter.com/urBZwdzl6v
Dostęp do tych wizerunków jest uzyskiwany poprzez opłacanie subskrypcji kont w witrynach udostępniania treści, takich jak Patreon.
Ian Critchley, przewodniczący brytyjskiej Krajowej Rady Szefów Policji (NPCC) ds. ochrony dzieci, powiedział, że błędem byłoby twierdzenie, że ponieważ obrazy wygenerowała sztuczna inteligencja, to nikt nie został skrzywdzony. Ostrzegł, że pedofil może "poruszać się po skali przestępstwa od myśli, przez syntezę, po faktyczne wykorzystywanie żywego dziecka".
Dodatkowo program umożliwia szybkie tworzenie ogromnych ilości materiałów, zalewając sieć i utrudniając pracę śledczym zajmującym się ściganiem pedofilów - twierdzi BBC.
Czytaj więcej:
Unia Europejska i USA chcą opracować zasady dotyczące sztucznej inteligencji
Doradca Rishiego Sunaka: "Sztuczna inteligencja może zabić wielu ludzi"
Ekspert: Nie straszmy sztuczną inteligencją, tylko nazywajmy obawy bardziej konkretnie