Cookie Consent by Privacy Policies Generator website
Menu

Global AI experts sound the alarm

Global AI experts sound the alarm
Jednym z głównych wniosków płynących z raportu jest ostrzeżenie o sile negatywnego oddziaływania sztucznej inteligencji, o ile zostanie ona wykorzystana przez rywalizujące ze sobą państwa, terrorystów oraz innych przestępców. (Fot. Thinkstock)
Leading researchers co-author unique report warning of the malicious use of AI in the coming decade. 'It is troubling, but necessary, to consider the implications of superhuman hacking, surveillance, persuasion, and physical target identification,' says newly-published report.
Advertisement
Advertisement
News available in Polish

Ponad stustronicowy raport napisany przez 26 ekspertów z 14 różnych organizacji, takich jak m. in. Uniwersytety w Oksfordzie i Cambridge, fundacja Electronic Frontier Foundation oraz organizacja OpenAI zawiera analizę wniosków wypracowanych podczas dwudniowych warsztatów na temat sztucznej inteligencji, które odbyły się w lutym ubiegłego roku na Uniwersytecie Oksfordzkim. Dokument koncentruje się na trzech sferach bezpieczeństwa: fizycznym, cyfrowym oraz politycznym, przedstawiając drogi, jak złe wykorzystanie sztucznej inteligencji może wpłynąć na każdą z nich.

"Często zdarza się, że systemy sztucznej inteligencji nie tyle dorównują wynikom osiąganym przez ludzi w różnych dziedzinach, ale znacznie je przewyższają" - stwierdził jeden z badaczy pracujących przy raporcie, związany z Uniwersytetem w Oksfordzie Miles Brundage. "Potrzebnym, choć martwiącym procesem jest analiza wykorzystania tych systemów w dziedzinach takich, jak nadzór, identyfikacja fizycznych celów i aktywność w cyberprzestrzeni" - dodał.

Jednym z głównych wniosków płynących z raportu jest ostrzeżenie o sile negatywnego oddziaływania sztucznej inteligencji, o ile zostanie ona wykorzystana przez rywalizujące ze sobą państwa, terrorystów oraz innych przestępców dla realizacji własnych celów. W większości przypadków, AI pozwala na przeprowadzenie bardzo dokładnie zaplanowanych ataków zarówno w sferze cybernetycznej, jak i fizycznej.

"W miarę, jak możliwości sztucznej inteligencji stają się coraz większe, a jej zastosowanie - coraz bardziej powszechne, spodziewamy się ewolucji zagrożeń związanych z jej wykorzystaniem. Zmiany obejmują również zagrożenia, z którymi mieliśmy do czynienia już wcześniej - pod wpływem technologii AI zmienia się ich struktura" - twierdzą autorzy raportu.

Naukowcy ostrzegają, że koszty tego rodzaju ataków będą coraz mniejsze ze względu na skalowalność rozwiązań technicznych, na jakie pozwala technologia sztucznej inteligencji.

Autorzy raportu ostrzegają przede wszystkim przed atakami w cyberprzestrzeni. W grę może wchodzić zautomatyzowana aktywność hakerów zdalnie wykonujących ataki, czy też wykorzystujących syntezę głosu i mowy w celu podszywania się pod określone osoby. Zagrożenie mają stanowić także częściowo i całkowicie zautomatyzowane drony, mogące posłużyć jako broń w skoordynowanych atakach na infrastrukturę krytyczną.

W sferze polityki, sztuczna inteligencja może posłużyć do wywierania wpływu na wyniki wyborów poprzez manipulację opinią publiczną, kolportowanie cyfrowej propagandy i fałszywych informacji. Algorytmy mają również pozwalać na budowę lepszego i dokładniejszego niż kiedykolwiek wcześniej systemu nadzoru, zarówno w przestrzeni publicznej, jak i prywatnej.

"Istotne problemy niesie ze sobą zwiększona możliwość analizy ludzkiego zachowania, naszych nastrojów, wierzeń i przekonań na podstawie danych, które pozostawiamy po sobie w internecie. To najbardziej martwiące w kontekście państw o ustroju autorytarnym, ale obawy dotyczą również państw demokratycznych, w których sztuczna inteligencja może znacznie utrudnić prowadzenie prawdziwej debaty publicznej" - twierdzą autorzy.

Zdaniem założyciela firmy High-Tech Bridge, Ilji Kołoczienki, obawy autorów raportu są znacznie przesadzone. Jak twierdzi, w ciągu następnych dziesięciu lat niewiele się zmieni.

"Musimy przede wszystkim rozróżnić prawdziwą sztuczną inteligencję, która może zastąpić ludzki mózg, od tego, co nazywamy sztuczną inteligencją w potocznym znaczeniu, a co nie ma z nią wiele wspólnego" - stwierdził. Kołoczienko zaznaczył również, że cyberprzestępcy już teraz korzystają z algorytmów uczenia maszynowego do zwiększania skuteczności swoich działań, co jest skuteczne przede wszystkim ze względu na brak wyszkolonych w cyberbezpieczeństwie specjalistów pracujących w firmach, które hakerzy biorą na swój celownik.

    Advertisement
    Advertisement
    Rates by NBP, date 19.04.2024
    GBP 5.0615 złEUR 4.3316 złUSD 4.0688 złCHF 4.4787 zł
    Advertisement

    Sport


    Advertisement
    Advertisement