Ekspertka Chatham House o zagrożeniach związanych z AI: Wrogie podmioty mogą jej użyć jako broń
Olivia O’Sullivan wskazuje, że firmy technologiczne muszą być zaangażowane w debatę na temat regulacji sztucznej inteligencji, bo to one są jej twórcami, ale nie mogą jej zdominować. "Państwa i instytucje międzynarodowe muszą mieć możliwość zarządzania zagrożeniami" - wyraziła opinię.
Podczas zorganizowanego przez Wielką Brytanię pierwszego globalnego szczytu ws. bezpieczeństwa sztucznej inteligencji (AI) przyjęto deklarację na temat współpracy przy zapobieganiu zagrożeniom związanym z tą technologią.
Ustalono również, że państwa i firmy technologiczne będą wspólnie testować nowe modele AI pod kątem ewentualnych zagrożeń.
"To, że podczas szczytu udało się zawrzeć deklarację o potrzebie współpracy i zrozumienia zagrożeń związanych ze sztuczną inteligencją, pod którą podpisały się zarówno Stany Zjednoczone, jak i Chiny, jest prawdopodobnie najważniejszym jego osiągnięciem. Znaczące jest to, że te dwa kraje, pomimo napięcia na innych polach i rywalizacji w kwestii zaawansowanej sztucznej inteligencji, były gotowe podpisać ten sam dokument" - zauważa O’Sullivan.
Przyznaje ona, że kwestia włączenia Chin w proces regulacyjny stwarza pewne ryzyko, ale ryzykiem byłoby też ich wykluczenie z niego. Jak wskazuje, sztuczna inteligencja jest polem znaczącej konkurencji geopolitycznej i dopiero okaże się, czy uda się utrzymać obecne w Bletchley Park poczucie, że wynikające z niej zagrożenia są wspólne.
Independent Thinkingð️ | Can world leaders regulate AI before it’s too late?
— Chatham House (@ChathamHouse) November 7, 2023
The @FT's @LOS_Fisher joins @roxy_esco to discuss @RishiSunak's AI summit, with:
▪@LivJOSullivan
▪@akrasodomski
Listen in full:https://t.co/wiZwm8Ze6S
Jak dodaje, zachęcające jest także to, że prywatne firmy zgadzają się na udostępnianie do testowania nowych modeli sztucznej inteligencji i publikowania szczegółów na ten temat.
"Kluczowe jest również to, że na prywatnych firmach będzie spoczywał obowiązek wykazania, że to, co robią, jest bezpieczne, Bardzo ważne jest, aby międzynarodowe bezpieczeństwo sztucznej inteligencji było postrzegane jako wspólne przedsięwzięcie, dlatego firmy big tech muszą być zaangażowanie w proces regulacji, ale nie mogą nim kierować" – wyjaśnia.
"Sztuczna inteligencja jest podobna do innych wyzwań regulacyjnych w ciągu ostatnich kilku dekad, w których firmy technologiczne są coraz bardziej wpływowe w rozmowach, ale ważne jest, abyśmy ustanowili normę, że demokratycznie wybrani przywódcy, instytucje międzynarodowe, prowadzą tę rozmowę i mają zdolność do regulowania i zarządzania tymi zagrożeniami" - podsumowuje.
Czytaj więcej:
Premier Sunak: Przywódcy mają obowiązek zająć się zagrożeniami związanymi z AI
UK: Chiny "potajemnie" brały udział w drugim dniu szczytu w sprawie AI