Cookie Consent by Privacy Policies Generator website
Menu

Raport o zagrożeniach sztucznej inteligencji zapowiada trudną przyszłość

Raport o zagrożeniach sztucznej inteligencji zapowiada trudną przyszłość
Jednym z głównych wniosków płynących z raportu jest ostrzeżenie o sile negatywnego oddziaływania sztucznej inteligencji, o ile zostanie ona wykorzystana przez rywalizujące ze sobą państwa, terrorystów oraz innych przestępców. (Fot. Thinkstock)
Nowy raport o zagrożeniach niesionych przez sztuczną inteligencję (AI) zapowiada trudną przyszłość. Zdaniem ekspertów, rozwój tej technologii może stworzyć nowe pole do działania dla cyberprzestępców, ingerencji w demokrację, a nawet ataków fizycznych.
Reklama
Reklama

Ponad stustronicowy raport napisany przez 26 ekspertów z 14 różnych organizacji, takich jak m. in. Uniwersytety w Oksfordzie i Cambridge, fundacja Electronic Frontier Foundation oraz organizacja OpenAI zawiera analizę wniosków wypracowanych podczas dwudniowych warsztatów na temat sztucznej inteligencji, które odbyły się w lutym ubiegłego roku na Uniwersytecie Oksfordzkim. Dokument koncentruje się na trzech sferach bezpieczeństwa: fizycznym, cyfrowym oraz politycznym, przedstawiając drogi, jak złe wykorzystanie sztucznej inteligencji może wpłynąć na każdą z nich.

"Często zdarza się, że systemy sztucznej inteligencji nie tyle dorównują wynikom osiąganym przez ludzi w różnych dziedzinach, ale znacznie je przewyższają" - stwierdził jeden z badaczy pracujących przy raporcie, związany z Uniwersytetem w Oksfordzie Miles Brundage. "Potrzebnym, choć martwiącym procesem jest analiza wykorzystania tych systemów w dziedzinach takich, jak nadzór, identyfikacja fizycznych celów i aktywność w cyberprzestrzeni" - dodał.

Jednym z głównych wniosków płynących z raportu jest ostrzeżenie o sile negatywnego oddziaływania sztucznej inteligencji, o ile zostanie ona wykorzystana przez rywalizujące ze sobą państwa, terrorystów oraz innych przestępców dla realizacji własnych celów. W większości przypadków, AI pozwala na przeprowadzenie bardzo dokładnie zaplanowanych ataków zarówno w sferze cybernetycznej, jak i fizycznej.

"W miarę, jak możliwości sztucznej inteligencji stają się coraz większe, a jej zastosowanie - coraz bardziej powszechne, spodziewamy się ewolucji zagrożeń związanych z jej wykorzystaniem. Zmiany obejmują również zagrożenia, z którymi mieliśmy do czynienia już wcześniej - pod wpływem technologii AI zmienia się ich struktura" - twierdzą autorzy raportu.

Naukowcy ostrzegają, że koszty tego rodzaju ataków będą coraz mniejsze ze względu na skalowalność rozwiązań technicznych, na jakie pozwala technologia sztucznej inteligencji.

Autorzy raportu ostrzegają przede wszystkim przed atakami w cyberprzestrzeni. W grę może wchodzić zautomatyzowana aktywność hakerów zdalnie wykonujących ataki, czy też wykorzystujących syntezę głosu i mowy w celu podszywania się pod określone osoby. Zagrożenie mają stanowić także częściowo i całkowicie zautomatyzowane drony, mogące posłużyć jako broń w skoordynowanych atakach na infrastrukturę krytyczną.

W sferze polityki, sztuczna inteligencja może posłużyć do wywierania wpływu na wyniki wyborów poprzez manipulację opinią publiczną, kolportowanie cyfrowej propagandy i fałszywych informacji. Algorytmy mają również pozwalać na budowę lepszego i dokładniejszego niż kiedykolwiek wcześniej systemu nadzoru, zarówno w przestrzeni publicznej, jak i prywatnej.

"Istotne problemy niesie ze sobą zwiększona możliwość analizy ludzkiego zachowania, naszych nastrojów, wierzeń i przekonań na podstawie danych, które pozostawiamy po sobie w internecie. To najbardziej martwiące w kontekście państw o ustroju autorytarnym, ale obawy dotyczą również państw demokratycznych, w których sztuczna inteligencja może znacznie utrudnić prowadzenie prawdziwej debaty publicznej" - twierdzą autorzy.

Zdaniem założyciela firmy High-Tech Bridge, Ilji Kołoczienki, obawy autorów raportu są znacznie przesadzone. Jak twierdzi, w ciągu następnych dziesięciu lat niewiele się zmieni.

"Musimy przede wszystkim rozróżnić prawdziwą sztuczną inteligencję, która może zastąpić ludzki mózg, od tego, co nazywamy sztuczną inteligencją w potocznym znaczeniu, a co nie ma z nią wiele wspólnego" - stwierdził. Kołoczienko zaznaczył również, że cyberprzestępcy już teraz korzystają z algorytmów uczenia maszynowego do zwiększania skuteczności swoich działań, co jest skuteczne przede wszystkim ze względu na brak wyszkolonych w cyberbezpieczeństwie specjalistów pracujących w firmach, które hakerzy biorą na swój celownik.

    Reklama
    Reklama
    Kurs NBP z dnia 18.03.2024
    GBP 5.0343 złEUR 4.3086 złUSD 3.9528 złCHF 4.4711 zł
    Reklama

    Sport


    Reklama
    Reklama