Menu

Doradca Rishiego Sunaka: "Sztuczna inteligencja może zabić wielu ludzi" 

Doradca Rishiego Sunaka: "Sztuczna inteligencja może zabić wielu ludzi" 
Coraz więcej mówi się na temat zagrożeń płynących z wprowadzania AI. (Fot. Getty Images)
Systemy sztucznej inteligencji (AI) mogą w ciągu zaledwie dwóch lat stać się wystarczająco potężne, by zabić wielu ludzi, więc przez ten czas trzeba znaleźć sposób na ich kontrolowanie - ostrzegł Matt Clifford, doradca brytyjskiego premiera Rishiego Sunaka ds. sztucznej inteligencji.
Reklama
Reklama

Matt Clifford ocenił, że nawet krótkoterminowe ryzyko jest "dość przerażające", a sztuczna inteligencja ma potencjał do tworzenia broni cybernetycznej i biologicznej, która może doprowadzić do zgonów wielu ludzi.

"Jeśli spróbujemy stworzyć sztuczną inteligencję, która jest bardziej inteligentna niż ludzie i nie będziemy wiedzieć, jak ją kontrolować, to stworzy to potencjał dla wszelkiego rodzaju zagrożeń teraz i w przyszłości. Słuszne, że powinno to być bardzo wysoko w programach rządzących" - stwierdził w rozmowie z TalkTV.

Jak dodał, tym co go w obecnej sytuacji najbardziej niepokoi, to fakt, że "ludzie, którzy budują najbardziej wydajne systemy (sztucznej inteligencji), swobodnie przyznają, że nie rozumieją dokładnie, w jaki sposób przejawiają one takie zachowania, jakie przejawiają".

Rishi Sunak udaje się właśnie do Stanów Zjednoczonych, gdzie ma spróbować przekonać prezydenta Joe Bidena do swojego "wielkiego planu" dotyczącego kontroli sztucznej inteligencji. Chce, aby to Wielka Brytania znalazła się w centrum międzynarodowych regulacji AI.

Szef brytyjskiego rządu ma nalegać przede wszystkim na to, aby w Londynie powstała siedziba międzynarodowego organu nadzorczego, podobnego do Międzynarodowej Agencji Energii Atomowej. Chce również powołania nowego, międzynarodowego organu badawczego AI.

Tymczasem Clifford został zapytany m.in. o oświadczenie podpisane w zeszłym tygodniu przez ponad 350 ekspertów zajmujących się sztuczną inteligencją - w tym szefa OpenAI, firmy odpowiedzialnej za stworzenie ChatGPT - w którym ostrzegli oni, że w dłuższej perspektywie istnieje również ryzyko, że technologia ta może doprowadzić do wyginięcia ludzkości.

"Ryzyko egzystencjalne, o którym jak sądzę, mówili autorzy listu, dotyczy tego (...), co się stanie, gdy skutecznie stworzymy nowy gatunek, inteligencję, która jest większa niż ludzka" - wyjaśnił.

Zapytany, w jakim czasie może to nastąpić, odparł, że spektrum czasowe wśród ekspertów od sztucznej inteligencji jest bardzo szerokie, ale w najbardziej skrajnej obecnie perspektywie, może to się stać w ciągu dwóch lat. Zastrzegł jednak, że nie ma na myśli zniszczenia całej ludzkości, lecz zdolności do zabijania wielu ludzi, a także, że niektórzy eksperci mówią o dekadach.

Clifford dodał, że te dwa lata to czas, w którym ludzkość musi znaleźć sposób na skuteczne kontrolowanie sztucznej inteligencji, zanim stanie się ona niemożliwa do opanowania. Podkreślił też, że sztuczna inteligencja ma potencjał, by stać się przytłaczającą siłą dobra - pod warunkiem, że znajdziemy sposoby na jej kontrolowanie.

"Jeśli wszystko pójdzie dobrze, można sobie wyobrazić sztuczną inteligencję leczącą choroby, zwiększającą produktywność gospodarki, pomagającą nam osiągnąć gospodarkę neutralną pod względem emisji dwutlenku węgla" - podsumował.

Czytaj więcej:

BT zwolni 55 tys. osób. Co 5. osobę zastąpi sztuczna inteligencja

Były szef Google: Sztuczna inteligencja ma potencjał, by zabić wiele osób

Niemcy: Nauczyciele wzywają do porzucenia klasycznego systemu ocen. Powodem AI

Prawie połowa młodych Amerykanów chce wykorzystać ChatGPT do pisania swojego CV

Unia Europejska i USA chcą opracować zasady dotyczące sztucznej inteligencji

"USA Today": Eksperci ostrzegają, że AI może doprowadzić do zniszczenia ludzkości

Komisarz UE Thierry Breton: Europa nie czeka z uregulowaniem AI. Przygotowujemy ustawy

    Reklama
    Reklama
    Kurs NBP z dnia 24.12.2024
    GBP 5.1549 złEUR 4.2739 złUSD 4.1127 złCHF 4.5654 zł
    Reklama

    Sport


    Reklama
    Reklama