Cookie Consent by Privacy Policies Generator website
Menu

Państwa UE wykorzystują sztuczną inteligencję do kontroli granic

Państwa UE wykorzystują sztuczną inteligencję do kontroli granic
Granic może wkrótce pilnować, uznawana za kontrowersyjną, zautomatyzowana technologia rozpoznawania twarzy i wykrywania emocji. (Fot. Getty Images)
Państwa członkowskie UE coraz częściej sięgają po technologie sztucznej inteligencji (AI) w celu kontroli granic - wskazano w raporcie Biura Analiz Parlamentu Europejskiego (EPRS). Granic może wkrótce pilnować kontrowersyjna technologia rozpoznawania twarzy.
Reklama
Reklama

W dokumencie zwrócono uwagę, że Unia Europejska i państwa członkowskie, podejmując wysiłki na rzecz wzmocnienia kontroli granicznej i zmniejszenia zagrożenia terroryzmem oraz przestępczością, coraz częściej sięgają po technologie sztucznej inteligencji.

"Jest to jeden z ostatnich przejawów szerszego trendu podążania w kierunku inteligentnych granic UE. Trendu, który obejmuje również rozwój i łączenie scentralizowanych na dużą skalę systemów informacyjnych, a także wdrożenie zdecentralizowanego mechanizmu wymiany informacji dotyczących granic i bezpieczeństwa" - wyjaśniono.

W scentralizowanych systemach informacyjnych UE dotyczących bezpieczeństwa granic coraz częściej "uwzględnia się wykorzystywanie technologii biometrycznych w celu identyfikacji lub weryfikacji tożsamości". "Zautomatyzowana technologia identyfikacji odcisków palców jest obecnie wykorzystywana w trzech systemach informacyjnych - Systemie Informacyjnym Schengen, Europejskim Zautomatyzowanym Systemie Rozpoznawania Odcisków Palców (Eurodac) i w Wizowym Systemie Informacyjnym. Będzie wykorzystywana również w systemie wjazdu/wyjazdu oraz w europejskim systemie przekazywania informacji z rejestrów karnych dotyczących obywateli państw trzecich. Zautomatyzowana technologia rozpoznawania twarzy nie jest jeszcze używana w żadnym systemie informacyjnym UE, ale we wszystkich systemach - z wyjątkiem Europejskiego Systemu Informacji o Podróży oraz Zezwoleń na Podróż - ma przetwarzać obrazy twarzy w celu weryfikacji lub identyfikacji w najbliższej przyszłości" - napisano.

W opinii ekspertów, technologie wykrywania emocji stanowią jedno z najbardziej kontrowersyjnych zastosowań sztucznej inteligencji na granicach. Podczas gdy obecnie systemy wykrywania emocji nie są wdrożone na granicach UE, w ramach wielu projektów i inicjatyw finansowych badano i pilotowano takie technologie mające służyć wzmocnieniu kontroli granic.

"Oprócz weryfikacji i identyfikacji znanych osób, algorytmy AI służą również do identyfikacji nieznanych osób będących przedmiotem zainteresowania na podstawie określonych profili ryzyka. Profilowanie algorytmiczne w celu oceny indywidualnych zagrożeń dla bezpieczeństwa oraz ryzyka nielegalnej migracji jest obecnie opracowywane w kontekście Wizowego Systemu Informacyjnego, a także Systemu Informacji o Podróży oraz Zezwoleń na Podróż" - podano w raporcie.

Jak podkreślono, ostrożne wdrażanie technologii sztucznej inteligencji w celu kontroli granic może przynieść wyraźne korzyści, m.in. zwiększoną zdolność wykrywania oszustw i nadużyć, lepszy, terminowy dostęp do informacji istotnych w procesie podejmowania decyzji, a także wzmocnioną ochronę osób szczególnie narażonych. "Korzyści te należy jednak zrównoważyć ze znacznym zagrożeniem, jakie stwarzają omawiane technologie dla praw podstawowych" - wskazano.

EPRS zwróciło uwagę, że "mimo postępu w zakresie technologii identyfikacji biometrycznej, dokładność rezultatów nadal różni się w zależności od wykorzystanej technologii i czynników kontekstowych": "Nawet powszechnie uznane aplikacje do identyfikacji odcisków palców muszą mierzyć się z wyzwaniami, w szczególności na etapie pobierania danych biometrycznych (co jest związane np. z wiekiem badanych i warunkami środowiskowymi). Niezawodność technologii rozpoznawania twarzy w warunkach rzeczywistego świata w dużym stopniu zależy od obrazów i jakości algorytmów stosowanych do porównywania danych biometrycznych. Jakość algorytmów zależy z kolei od jakości szkoleniowych zbiorów danych oraz różnych technik optymalizacji. Istnieją poważne wątpliwości co do podstaw naukowych i wiarygodności algorytmów wykrywania emocji".

Autorzy analizy wskazali, że "nawet dokładne i bezstronne systemy sztucznej inteligencji mogą stwarzać inne znaczące zagrożenia, w tym dotyczące ochrony danych i prywatności". "Zwiększone wykorzystanie danych biometrycznych w systemach informacyjnych UE nasila ryzyko niezgodnego z prawem profilowania (np. wizerunki twarzy mogą ujawnić pochodzenie etniczne). W przypadku finansowanego przez UE projektu badawczego, skoncentrowanego na rozwoju technologii wykrywania emocji, istnieje potrzeba wzmocnienia przejrzystości i nadzoru nad finansowaniem przez UE badań nad sztuczną inteligencją, w szczególności w obszarach wiążących się z poważnymi konsekwencjami, takimi jak granice i bezpieczeństwo" - stwierdzili.

Ich zdaniem w procesie rozwoju technologii sztucznej inteligencji niezbędne jest pełne zrozumienie i refleksja nad szerszymi aspektami historycznymi, korzeniami tych technologii, a także nad dominującymi poglądami, oczekiwaniami społecznymi i politycznymi. "Adaptacja technologii bez konfrontacji z pułapkami - takimi jak determinizm technologiczny czy mit neutralności technologicznej - jeszcze bardziej osłabiłaby prawa podstawowe, przejrzystość i odpowiedzialność" - podsumowali. 

Czytaj więcej:

Ekspert: Ludzie nie doceniają sztucznej inteligencji

Microsoft pokazał, jak będzie się żyło w Mieście Przyszłości

Sztuczna inteligencja ułożyła kostkę Rubika w sekundę

Roboty zastąpią na Wyspach tanią siłę roboczą z UE

Eksperci: Pandemia minie, systemy śledzące ludzi zostaną

Sztuczna inteligencja rozpoznaje, kto może umrzeć na Covid-19

Eksperci: Hybrydowy model pracy stanie się normą dla 50 proc. pracowników

    Reklama
    Reklama
    Kurs NBP z dnia 19.04.2024
    GBP 5.0615 złEUR 4.3316 złUSD 4.0688 złCHF 4.4787 zł
    Reklama

    Sport


    Reklama
    Reklama