"Big Brother" na londyńskich stacjach kolejowych. Używano kamer AI bez wiedzy pasażerów
Nagrane obrazy były przesyłane do analizy przez specjalne oprogramowanie Amazon Rekognition, które potrafi wykrywać emocje, takie jak to, czy ktoś jest szczęśliwy, smutny lub głodny. System, testowany na stacjach takich jak Euston, Waterloo, Glasgow, Leeds i Reading, rejestrował również dane demograficzne, takie jak płeć i przedział wiekowy pasażera.
W dokumentacji, uzyskanej w trybie wniosku o udostępnienie informacji publicznej (FOI), przedstawiciele Network Rail poinformowali, że analiza ta może posłużyć do "pomiaru satysfakcji" i "maksymalizacji przychodów z reklam i sprzedaży detalicznej".
Kamery były częścią szerszego projektu mającego na celu wykorzystanie sztucznej inteligencji do rozwiązywania takich problemów, jak wtargnięcie na tory, nadmierne zatłoczenie, kradzieże rowerów i śliskie posadzki.
Network Rail ‘secretly used AI to read passengers’ ‘emotions’, it put cameras at ticket barriers to check on customer satisfaction and 'maximise advertising and retail revenue.
— Chris Ogilvie (@Ogilvie_CJ) June 19, 2024
In EU such systems are banned under the EU Al Act. ⬇️ð°https://t.co/MfKo0OHzw3
"Network Rail nie miała prawa wdrażać technologii opartej na rozpoznawaniu emocji przeciwko nieświadomym pasażerom dojeżdżającym do pracy na niektórych z największych stacji w Wielkiej Brytanii, a ja złożyłem skargę do komisarza ds. informacji na temat tej próby" - oświadczył Jake Hurfurt, szef działu ds. analiz i dochodzeń w Big Brother Watch.
"Niepokojące jest to, że jako organ publiczny zdecydował się na przeprowadzenie zakrojonej na szeroką skalę próby monitoringu AI stworzonego przez Amazon na kilku stacjach bez informowania o tym opinii publicznej, zwłaszcza gdy Network Rail połączył technologię bezpieczeństwa z pseudonaukowymi narzędziami i zasugerował, że dane mogą być przekazywane reklamodawcom" - zauważył.
"Technologia może odegrać rolę w zwiększaniu bezpieczeństwa kolei, ale potrzebna jest solidna debata publiczna na temat zasadności i proporcjonalności stosowanych narzędzi" - podsumował.
⚠️We’ve uncovered documents revealing that eight train stations trialled Amazon’s AI surveillance software with their CCTV cameras - with some analysing passengers's age, gender and emotions
— Big Brother Watch (@BigBrotherWatch) June 17, 2024
"The rollout and normalisation of AI surveillance in these public spaces, without much… pic.twitter.com/dJLS75ZURH
"Traktujemy bezpieczeństwo infrastruktury kolejowej niezwykle poważnie i korzystamy z szeregu zaawansowanych technologii na naszych stacjach, aby chronić pasażerów, naszych współpracowników i całą sieć kolejową przed przestępczością i innymi zagrożeniami" - oznajmił z kolei rzecznik Network Rail.
Według doniesień "The Times", testy z wykorzystaniem AI są kontynuowane, ale część analizująca emocje i dane demograficzne została już wstrzymana.
Czytaj więcej:
Eksperci o 35 zagrożeniach dla świata: Dezinformacja i brak kontroli nad AI coraz bardziej realne
Brytyjczycy podróżujący do Europy mogą być poddawani testom na "wykrywaczu kłamstw AI"
To chyba wiadomość sprzed 20 lat ... ð
ð
ð
ð
ð¤£
To było 30 lat temu.
Info "w czas" ð¤¤