UK: Wnioski o zasiłki analizuje sztuczna inteligencja. "Budzi to poważne obawy"
Kiedy na skrzynkę pocztową każdego dnia przychodzi ok. 25 tys. e-maili, zrozumiałym jest, że trudno zdecydować, na które odpowiedzieć jako pierwsze. Sprawa jest tym poważniejsza, że do Ministerstwa Pracy i Emerytur (DWP) trafia wiele próśb od najbardziej potrzebujących w kraju osób - zauważa "The Guardian".
Mierząc się z takim wyzwaniem DWP postanowiło skorzystać z najnowszych osiągnięć techniki. Tzw. "biała poczta" to sztuczna inteligencja, która może wykonać tę samą pracę, którą wykonuje urzędnik przez tygodnie, czytając korespondencję zaledwie w ciągu jednego dnia i nadając priorytet sprawom, którymi pracownicy ministerstwa powinni się zająć w pierwszej kolejności.
Oznacza to, że AI obniża priorytet wniosków innych osób, więc dokładność i sposób, w jaki dochodzi do swoich wniosków, mają duże znaczenie. Tymczasem nie jest do końca jasne, jakie kryteria przyjmuje algorytm.
"Biała poczta" jest testowana od co najmniej 2023 r., kiedy to ówczesny minister ds. opieki społecznej Mel Stride zapowiedział, że dzięki niej "najbardziej potrzebujący wnioskodawcy mogą być szybciej kierowani do odpowiedniej osoby, która może im pomóc".
Next up we have the Excellence in Delivery Award, sponsored by @baringa. The winner is....DWP’s White Mail Vulnerability Solution which is using AI to get to @DWPgovuk 's most vulnerable customers quickly. Congratulations! #CSAwards pic.twitter.com/EDHZThCkE5
— Civil Service World (@CSWnews) December 10, 2024
Z informacji "Guardiana" wynika jednak, że osoby ubiegające się o zasiłki nie są informowane o stosowaniu AI podczas wstępnej weryfikacji ich spraw.
Tymczasem korespondencja może obejmować wrażliwe dane, takie jak numery ubezpieczenia społecznego, daty urodzenia, adresy, dane telefoniczne, adresy e-mail, szczegóły wniosków o świadczenia, informacje dotyczące zdrowia, dane dotyczące kont bankowych, cechy rasowe i seksualne oraz szczegóły dotyczące dzieci.
Meagan Levin, menedżer ds. polityki i spraw publicznych w Turn2us - organizacji charytatywnej, która pomaga osobom zmagającym się z niepewnością finansową, uważa, że system "wzbudza obawy, w szczególności dotyczące braku przejrzystości i przetwarzania przez niego wysoce poufnych danych osobowych, w tym dokumentacji medycznej i danych finansowych".
"Przetwarzanie takich informacji bez wiedzy i zgody osób ubiegających się o świadczenia jest głęboko niepokojące" - dodaje Levin.
Serious concerns about the DWP’s use of AI to read correspondence from benefit claimants
— Socialist Voice (@SocialistVoice) January 27, 2025
White mail system handles highly sensitive personal data and people are not told that it is processing their information
https://t.co/Drb8G7kKDJ
Zgodnie z informacjami opublikowanymi do tej pory, dane są szyfrowane przed usunięciem oryginałów i są przechowywane przez DWP i jego dostawcę usług w chmurze. Ministerstwo twierdzi, że konsultacje z osobami fizycznymi na temat tego sposobu przetwarzania ich danych "nie są konieczne, ponieważ te rozwiązania zwiększą wydajność przetwarzania".
Urzędnicy wskazują ponadto, że jest to uzupełnienie istniejących systemów, a wskazana przez AI korespondencja jest następnie sprawdzana przez agentów w celu ustalenia, czy sprawa faktycznie wymaga pilnych działań. DWP stwierdziło, że sztuczna inteligencja nie podjęła żadnej decyzji i nie przetworzyła żadnych danych.
"Nadanie priorytetu niektórym przypadkom nieuchronnie obniża priorytet wobec innych, dlatego ważne jest zrozumienie, w jaki sposób podejmowane są te decyzje i zapewnienie, że są uczciwe. DWP powinno publikować dane dotyczące wydajności systemu i wprowadzać zabezpieczenia, w tym regularne audyty i dostępne procesy odwoławcze, aby chronić narażonych wnioskodawców" - podsumowuje Meagan Levin.
Czytaj więcej:
Na jakie usługi publiczne najbardziej skarżą się Anglicy? Zasiłki i usługi zdrowotne na czele listy
Rząd wydał ostrzeżenie o "wstrzymaniu wypłat" zasiłków dla milionów osób w UK
UK: Zasiłkowi oszuści pod lupą rządu. Mogą zostać pozbawieni prawa jazdy lub trafić do więzienia
AI może ona również pogłębić zjawiska marginalizacji, dyskryminacji, ubóstwa, „wykluczenia cyfrowego” i nierówności społecznych [52]. W szczególności „obawy etyczne” budzi fakt, że „większość władzy nad głównymi zastosowaniami sztucznej inteligencji jest zgromadzona w rękach kilku potężnych firm” [53], // AI to zespół programów i algorytmów. Czy wdrażane dla dobra czowieka? - tak i szczypawki. Ludzie musza przestać używać QR których nie potrafia czytać ale obecnie są z tym oswajani i trenowani w celu polubienia jak psy p.. I będzie tak: wystarczy mi QR kod (chip) żebym mógł kupić miskę ryżu.
No to tera będzie burdel jeśli SI jest tak inteligentna jak brytyjscy biurokraci poza tym radzę zobaczyć na tt wywiad z profesorem z oxfordu noblista krytycznie się o tym wypowiadajacym