Szef Google'a: Źle wdrożona sztuczna inteligencja może być bardzo szkodliwa
W rozmowie z programem "60 Minutes" w amerykańskiej stacji CBS Pichai wezwał również do stworzenia globalnych ram regulacyjnych dla sztucznej inteligencji (AI), podobnych do traktatów zawartych w sprawie bron jądrowej, ponieważ - jak ostrzegł - rywalizacja o wyprodukowanie bardziej zaawansowanej technologii może prowadzić do odsuwania na bok obaw związanych z bezpieczeństwem.
"Może być bardzo szkodliwa, jeśli zostanie źle wdrożona i nie mamy jeszcze wszystkich odpowiedzi - a technologia porusza się szybko. Więc czy to nie pozwala mi spać w nocy? Absolutnie" - stwierdził.
Google CEO Sundar Pichai warns society to brace for impact of A.I. acceleration, says ‘it’s not for a company to decide’https://t.co/Ed0HuWYiew
— CNBC (@CNBC) April 17, 2023
Będący właścicielem Google'a, konglomerat Alphabet Inc. w marcu uruchomił chatbota Bard, odpowiadając na globalną popularność ChatGPT, opracowanego przez amerykańską firmę technologiczną OpenAI, który został zaprezentowany w listopadzie zeszłego roku.
Pichai uważa, że w miarę rozwoju AI rządy będą musiały wymyślić globalne ramy dla jej regulacji.
W marcu tysiące ekspertów od sztucznej inteligencji, badaczy i jej zwolenników, w tym właściciel Twittera Elon Musk, podpisało list wzywający do wstrzymania tworzenia "gigantycznych" sztucznych inteligencji na co najmniej sześć miesięcy w związku z obawami, że rozwój technologii może wymknąć się spod kontroli.
Zapytany, czy uregulowania, jakie dotyczą broni jądrowej, mogłyby być potrzebne, Pichai przyznał: "Potrzebowalibyśmy tego".
Technologia AI użyta w ChatGPT i Bard, znana jako Large Language Model, jest szkolona na ogromnym zbiorze danych pobranych z internetu i na zadane przez użytkowników pytania jest w stanie wygenerować wiarygodne odpowiedzi w różnych formatach, od wierszy do esejów akademickich i kodów oprogramowania.
Pichai zauważył, że AI może wyrządzić szkody poprzez swoją zdolność do wytwarzania dezinformacji. "Z AI będzie możliwe łatwo stworzyć wideo, w którym Scott (Pelley, prowadzący wywiad w CBS - przyp. red.) mówi coś, albo ja mówię coś, czego nigdy nie powiedzieliśmy. I mogłoby to wyglądać realistycznie. Ale wiesz, na skalę społeczną, wiesz, może to spowodować wiele szkód" - wyjaśnił.
Zapewnił, że wersja sztucznej inteligencji upubliczniona przez Google'a poprzez chatbota Bard jest bezpieczna, a firma wstrzymała bardziej zaawansowane wersje Barda do testów.
Pichai przyznał, że Google nie do końca rozumie, jak jego technologia AI produkuje pewne odpowiedzi. "Jest pewien aspekt tego, który nazywamy, wszyscy w tej dziedzinie nazywają, czarną skrzynką. Wiesz, nie rozumiesz w pełni. I nie możesz do końca powiedzieć, dlaczego ona powiedziała to, albo dlaczego się pomyliła" - mówił.
The revolution is coming faster than you know, says Google CEO Sundar Pichai. This Sunday, 60 Minutes looks at how rapidly advancing artificial intelligence is changing our world. https://t.co/9FzToxYdPQ
— 60 Minutes (@60Minutes) April 16, 2023
Zapytany, dlaczego Google upubliczniło Barda, skoro nie do końca rozumie jak działa, Pichai odpowiedział: "Pozwól mi to ująć w ten sposób. Nie sądzę, że my też w pełni rozumiemy, jak działa ludzki umysł".
Pichai przyznał, że społeczeństwo nie wydaje się być gotowe na szybkie postępy w AI. Zauważył, że "wydaje się, że istnieje niedopasowanie" między tempem, w jakim społeczeństwo myśli i dostosowuje się do zmian, w porównaniu z tempem, w jakim AI się rozwijała.
Dodał jednak, że przynajmniej ludzie szybciej stali się czujni na jej potencjalne zagrożenia. "W porównaniu z każdą inną technologią, widziałem więcej ludzi zaniepokojonych nią na wcześniejszym etapie jej cyklu życia. Czuję się więc optymistycznie" - przekonywał.
Czytaj więcej:
Elon Musk: "Sztuczna inteligencja jest jednym z największych zagrożeń dla cywilizacji"
Sztuczna inteligencja wspomoże polskich lekarzy
USA: Elon Musk i setki badaczy AI wezwali do pauzy w rozwoju sztucznej inteligencji