Doradca Rishiego Sunaka: "Sztuczna inteligencja może zabić wielu ludzi"
Matt Clifford ocenił, że nawet krótkoterminowe ryzyko jest "dość przerażające", a sztuczna inteligencja ma potencjał do tworzenia broni cybernetycznej i biologicznej, która może doprowadzić do zgonów wielu ludzi.
"Jeśli spróbujemy stworzyć sztuczną inteligencję, która jest bardziej inteligentna niż ludzie i nie będziemy wiedzieć, jak ją kontrolować, to stworzy to potencjał dla wszelkiego rodzaju zagrożeń teraz i w przyszłości. Słuszne, że powinno to być bardzo wysoko w programach rządzących" - stwierdził w rozmowie z TalkTV.
Jak dodał, tym co go w obecnej sytuacji najbardziej niepokoi, to fakt, że "ludzie, którzy budują najbardziej wydajne systemy (sztucznej inteligencji), swobodnie przyznają, że nie rozumieją dokładnie, w jaki sposób przejawiają one takie zachowania, jakie przejawiają".
Rishi Sunak udaje się właśnie do Stanów Zjednoczonych, gdzie ma spróbować przekonać prezydenta Joe Bidena do swojego "wielkiego planu" dotyczącego kontroli sztucznej inteligencji. Chce, aby to Wielka Brytania znalazła się w centrum międzynarodowych regulacji AI.
Szef brytyjskiego rządu ma nalegać przede wszystkim na to, aby w Londynie powstała siedziba międzynarodowego organu nadzorczego, podobnego do Międzynarodowej Agencji Energii Atomowej. Chce również powołania nowego, międzynarodowego organu badawczego AI.
EXCLUSIVE: The PM’s AI Task Force adviser Matt Clifford says the world may only have two years left to tame Artificial Intelligence before computers become too powerful for humans to control.
— TalkTV (@TalkTV) June 5, 2023
Tymczasem Clifford został zapytany m.in. o oświadczenie podpisane w zeszłym tygodniu przez ponad 350 ekspertów zajmujących się sztuczną inteligencją - w tym szefa OpenAI, firmy odpowiedzialnej za stworzenie ChatGPT - w którym ostrzegli oni, że w dłuższej perspektywie istnieje również ryzyko, że technologia ta może doprowadzić do wyginięcia ludzkości.
"Ryzyko egzystencjalne, o którym jak sądzę, mówili autorzy listu, dotyczy tego (...), co się stanie, gdy skutecznie stworzymy nowy gatunek, inteligencję, która jest większa niż ludzka" - wyjaśnił.
Zapytany, w jakim czasie może to nastąpić, odparł, że spektrum czasowe wśród ekspertów od sztucznej inteligencji jest bardzo szerokie, ale w najbardziej skrajnej obecnie perspektywie, może to się stać w ciągu dwóch lat. Zastrzegł jednak, że nie ma na myśli zniszczenia całej ludzkości, lecz zdolności do zabijania wielu ludzi, a także, że niektórzy eksperci mówią o dekadach.
Clifford dodał, że te dwa lata to czas, w którym ludzkość musi znaleźć sposób na skuteczne kontrolowanie sztucznej inteligencji, zanim stanie się ona niemożliwa do opanowania. Podkreślił też, że sztuczna inteligencja ma potencjał, by stać się przytłaczającą siłą dobra - pod warunkiem, że znajdziemy sposoby na jej kontrolowanie.
"Jeśli wszystko pójdzie dobrze, można sobie wyobrazić sztuczną inteligencję leczącą choroby, zwiększającą produktywność gospodarki, pomagającą nam osiągnąć gospodarkę neutralną pod względem emisji dwutlenku węgla" - podsumował.
Czytaj więcej:
BT zwolni 55 tys. osób. Co 5. osobę zastąpi sztuczna inteligencja
Były szef Google: Sztuczna inteligencja ma potencjał, by zabić wiele osób
Niemcy: Nauczyciele wzywają do porzucenia klasycznego systemu ocen. Powodem AI
Prawie połowa młodych Amerykanów chce wykorzystać ChatGPT do pisania swojego CV
Unia Europejska i USA chcą opracować zasady dotyczące sztucznej inteligencji
"USA Today": Eksperci ostrzegają, że AI może doprowadzić do zniszczenia ludzkości
Komisarz UE Thierry Breton: Europa nie czeka z uregulowaniem AI. Przygotowujemy ustawy