Cookie Consent by Privacy Policies Generator website
Menu

Prawne problemy ze sztuczną inteligencją. Czy prawo powstrzyma "bunt maszyn"?

Prawne problemy ze sztuczną inteligencją. Czy prawo powstrzyma
Obecne regulacje związane z AI nie są adekwatne, co prowadzi do skrajnie różnych rozstrzygnięć kwestii odpowiedzialności, praw autorskich i kwestii etycznych w różnych zakątkach świata. (Fot. Getty Images)
Prawne problemy ze sztuczną inteligencją narastają wraz z dynamicznym rozwojem technologii AI. System regulacyjny nie nadąża nie tylko za tworzeniem prawa wyznaczającego granice dla nowej technologii, ale też złożonością procesu tworzenia algorytmów, które często są utajnione.
Advertisement
Advertisement

Apel środowiska technologicznego o wstrzymanie prac nad AI

W końcu listopada 2023 r. doszło do spektakularnego zwolnienia i - po kilku dniach - równie widowiskowego przywrócenia do pracy Sama Altmana, dyrektora wykonawczego i współzałożyciela spółki OpenAI. Altman to czołowa postać w branży AI, "złote dziecko Doliny Krzemowej”, zwolennik stworzenia bezpiecznej, tzw. ogólnej lub silnej sztucznej inteligencji (AGI). Wydarzenie to przez kilka dni nie schodziło z czołówek światowych mediów.

Jak celnie zauważył "Forbes”, to był scenariusz, którego nie powstydziłaby się sztuczna inteligencja. Wydarzenie podgrzało - i tak gorącą od kilku lat - dyskusję na temat szans i zagrożeń, jakie niesie rozwój AI, ale również wokół prawnych możliwości jej okiełznania.

Podobnej wrzawy medialnej nie wywołała publikacja w marcu 2023 r. listu otwartego podpisanego przez 1 000 liderów sektora wysokich technologii IT z Elonem Muskiem i Stevem Wozniakiem na czele (Altmana wśród nich nie było), którzy zaapelowali do światowych laboratoriów AI o natychmiastowe wstrzymanie przynajmniej na 6 miesięcy prac rozwojowych nad technologiami potężniejszymi niż GPT-4.

List wywołał spore poruszenie i dyskusje w sektorze AI. Bezpośrednim bodźcem tego apelu było zaprezentowanie przez firmę OpenAI, wspieraną przez Microsoft, kilkanaście dni wcześniej czwartej wersji programu AI GPT (Generative Pre-trained Transformer), który zachwycił użytkowników zdolnościami prowadzenia "ludzkiej” rozmowy, komponowaniem piosenek i kreowaniem długich dokumentów.

(Fot. Getty Images)

Sygnatariusze listu ostrzegali, że narzędzia sztucznej inteligencji stanowią "głębokie ryzyko dla społeczeństwa i ludzkości”. Zwraca uwagę zwłaszcza jego następujący fragment: "Współczesne systemy sztucznej inteligencji stają się obecnie konkurencyjne wobec ludzi w ogólnych zadaniach i musimy zadać sobie pytanie: czy powinniśmy pozwolić maszynom zalewać nasze kanały informacyjne propagandą i nieprawdą? Czy powinniśmy automatyzować wszystkie zadania, także te, które dają nam satysfakcję? Czy powinniśmy rozwijać nieludzkie umysły, które w końcu mogą nas przewyższyć liczebnie, przechytrzyć i zastąpić? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją? Nie można delegować takich decyzji na niepochodzących z wyboru liderów technologicznych. Potężne systemy sztucznej inteligencji należy opracowywać dopiero wtedy, gdy będziemy mieli pewność, że ich skutki będą pozytywne, a związane z nimi ryzyko będzie możliwe do opanowania”.

Komentatorzy z branży uznali, że o ile przerwa w dalszych badaniach nad AI to dobry pomysł, to sam apel ocenili jako niejasny, w którym nie potraktowano poważnie problemów regulacyjnych. Niektórym z sygnatariuszy, zwłaszcza Muskowi, zarzucano hipokryzję, ponieważ był jednym ze współfinansujących OpenAI na początku jej drogi, co jednocześnie nie przeszkadzało mu apelować do organów regulacyjnych o zapewnienie, że rozwój AI będzie służył interesowi publicznemu.

Premierowa prezentacja przez OpenAI rozwiązania ChatGPT skłoniła rywali do przyspieszenia prac nad podobnymi modelami językowymi, a wiele firm ściga się, aby "zanurzyć” swoje produkty w sztucznej inteligencji. Inwestorzy nieufni wobec monopolu jednej firmy, wspierają konkurentów OpenAI. Rozpoczął się swoisty "wyścig zbrojeń”.

Technologia ChatGPT przyciąga uwagę amerykańskich prawodawców, którzy niepokoją się o jej wpływ na bezpieczeństwo narodowe i edukację. Unijna policja Europol ostrzega o potencjalnym niewłaściwym wykorzystaniu systemu do prób phishingu, dezinformacji i cyberprzestępczości.

(Fot. Getty Images)

Z kolei rząd Wielkiej Brytanii przedstawił propozycje "możliwych do dostosowania” ram regulacyjnych dotyczących sztucznej inteligencji. Nad rozwiązaniami prawnymi pochylają się instytucje i organy Unii Europejskiej.

Stanowienie prawa utrudnia to, że badania i wdrożenia AI pozostają nie w rękach rządów, ale nielicznych firm dysponujących odpowiednimi zasobami. Systemy AI jest trudno tworzyć, ale jeszcze trudniej zdemokratyzować.

Najistotniejsze zagrożenia AI

Pojawieniu się pierwszych rozwiązań w zakresie AI towarzyszyły obawy co do zagrożeń, jakie stwarza ta technologia. Specjaliści wskazują ich wiele, wymienia się najczęściej brak przejrzystości, wpływanie na wybory człowieka i uprzedzenia społeczne, naruszanie prywatności, zagrożenia bezpieczeństwa, koncentrację władzy w rękach kilku korporacji, rewolucję na rynku pracy, nierówności ekonomiczne, zrywanie więzi międzyludzkich, uzależnienie od narzędzi AI, dezinformację i manipulację.

Wszystkie z wymienionych można wszakże sprowadzić do jednego zasadniczego zagrożenia, które wyartykułował Steven Feldstein, profesor na Uniwersytecie Stanowym Boise, a w przeszłości wysoki urzędnik Departamentu Stanu USA: "Na całym świecie systemy sztucznej inteligencji pokazują swój potencjał w zakresie wspierania represyjnych reżimów i wywracania do góry nogami relacji między obywatelem a państwem, przyspieszając w ten sposób globalne odrodzenie autorytaryzmu”.

Widać to zwłaszcza na przykładzie Chin, które za kluczowy element strategii geopolitycznej przyjęły rozprzestrzenianie technologii AI wśród reżimów autorytarnych i nieliberalnych. Znaczenie tej technologii zarówno dla światowych autorytaryzmów, jak i ich demokratycznych przeciwników staje się coraz wyraźniejsze.

(Fot. Getty Images)

W ostatnich latach autokracje osiągnęły nowy poziom kontroli i manipulacji, stosując zaawansowane systemy komputerowe do przetwarzania ogromnych ilości nieustrukturyzowanych danych dostępnych obecnie w internecie. Technologie rozpoznawania twarzy, które w czasie rzeczywistym sprawdzają obrazy w ogromnych bazach danych, czy też algorytmy penetrujące media społecznościowe w poszukiwaniu oznak aktywności opozycji - wszystkie te innowacje zmieniają zasady gry politycznej i coraz częściej służą do narzucania kierunku dyskursu i zwalczania politycznych oponentów.

Należy podkreślić, że technologia AI nie jest jedyną wykorzystywaną przez autokratów do celów politycznych. Inne, jak zaawansowana biometria, państwowy cyberhaking i techniki zniekształcania informacji, stosowane w połączeniu ze sztuczną inteligencją, mają równie niepokojące skutki.

Jednak AI posiada tę przewagę, że dysponuje możliwościami wyższego rzędu, które integrują i ulepszają funkcje innych technologii w nowy, zaskakujący sposób. Ponadto mamy do czynienia z ograniczonym zrozumieniem wpływu technologii AI na politykę; decydenci nadal nie traktują poważnie represyjnych konsekwencji sztucznej inteligencji.

Warto zauważyć w kontekście rozwoju AI, że zmienia się sposób, w jaki autokraci tracą władzę. Liczba zamachów stanu, charakterystycznych dla okresu zimnej wojny, gwałtownie spadła, stanowiąc przyczynę zaledwie 13% upadków "zamordystycznych” reżimów.

Najpoważniejszym zagrożeniem dla dyktatur jest niezadowolenie opinii publicznej, wyrażane na ulicach lub przy urnach wyborczych. Wnioski dla autokratów są jasne: należy przekierować zasoby tak, aby utrzymać kontrolę nad popularnymi ruchami obywatelskimi i fałszować wybory. W tych obszarach technologia sztucznej inteligencji zapewnia kluczową przewagę.

(Fot. Getty Images)

Zamiast polegać na siłach bezpieczeństwa represjonujących obywateli, ze wszystkimi kosztami i związanym z tym ryzykiem politycznym, przywódcy stosują narzędzia cyfrowe do monitorowania, inwigilowania i nękania ruchów społeczeństwa obywatelskiego oraz do zakłócania wyborów.

S. Feldstein kreśli trzy scenariusze, w których AI może być przydatna dyktaturom i władzom niedemokratycznym: śledzenie powszechnego niezadowolenia i kontrolowanie masowych protestów, trzymanie w ryzach niespokojnej prowincji, wykorzystywanie dezinformacji do delegitymizacji przeciwników.

Rozprzestrzenianie technologii AI, wzrost represji cyfrowych stanowią poważne wyzwania dla liberalnych demokracji. Kluczowa staje się kwestia, czy narzędzia AI mogą spowodować, że same demokracje staną się bardziej represyjne? Czy pokusa skorzystania z potencjału AI może ostatecznie zniszczyć demokratyczne mechanizmy? Niebezpieczeństwo jest znacznie większe dla kruchych demokracji lub krajów o autorytarnych tendencjach.

Nawet w systemach politycznych, które są pozornie demokratyczne, rządy mają wysoką motywację do wyposażania sił bezpieczeństwa w wyrafinowaną technologię, zdolną do monitorowania działań przeciwników politycznych i społeczeństwa obywatelskiego (np. wykorzystanie systemu Pegasus w Polsce).

(Fot. Getty Images)

Prawne dylematy. Więcej pytań niż odpowiedzi

Demokracje powinny przejąć inicjatywę w rozwijaniu ram regulacyjnych dotyczących AI, bowiem trudno spodziewać się takich działań ze strony Chin czy Rosji, które nie są skłonne do przywdziania gorsetu międzynarodowych przepisów. To jest i będzie niełatwy proces - innowacje technologiczne często prześcigają zdolność organów regulacyjnych do opracowania rozsądnych standardów i wytycznych.

Technologia AI jest narzędziem o "podwójnym zastosowaniu”: można ją użyć do celów szlachetnych, ale także do celów wojskowych i represyjnych. Problem tkwi w tym, że tej technologii nie można precyzyjnie podzielić na oddzielne części: "korzystną” i "szkodliwą”.

Dodatkowa trudność regulacyjna wynika z tego, że AI koncentruje władzę w rękach kilku cyfrowych gigantów internetu. To oni decydują, w jaki sposób większość społeczeństw korzysta z internetu i co sieć im dostarcza.

Kumulacja władzy technologicznej, gospodarczej i politycznej w rękach pięciu największych graczy - Google’a, Facebooka, Microsofta, Apple’a i Amazona - zapewnia im nadmierny wpływ w obszarach życia społecznego, istotnych dla budowania opinii: w kręgach władzy wykonawczej, ustawodawczej, społeczeństwie obywatelskim, partiach politycznych, szkole i edukacji, mediach oraz - co najważniejsze - nauce i badaniach.

(Fot. Getty Images)

W konsekwencji korporacje technologiczne nie tylko kształtują rozwój i wdrażanie sztucznej inteligencji, ale także debatę na temat jej regulacji.

Zdaniem wielu znawców przedmiotu, u źródeł wszystkich problemów prawnych leży brak przejrzystości algorytmicznej sztucznej inteligencji. Algorytm, najprościej ujmując, to metodologiczny zestaw instrukcji służący do przekształcania danych w wiedzę. Stosując kulinarną analogię, to przepis polegający na przekształceniu składników w gotowe danie. Wyrafinowane algorytmy mogą przeglądać masy danych z zadziwiającą szybkością.

Media społecznościowe dostarczają kolosalnej ilości danych generowanych przez użytkowników, w większości nieustrukturyzowanych, natomiast algorytmy umożliwiają ich uporządkowanie w popularne tematy, wzorce zachowań użytkowników, potrzeby użytkowników, zasadnicze interakcje, aktywność w komentarzach, żeby wymienić tylko kilka.

Informacje na temat funkcjonalności algorytmów są często celowo nieudostępniane. Stąd pojawia się coraz więcej głosów dotyczących odpowiedzialności algorytmicznej AI.

Określenie, kto może zostać pociągnięty do odpowiedzialności za niekorzystne działania sztucznej inteligencji, jest ważne, ale niezwykle trudne. Na przykład określenie "programista” może odnosić się do wielu współpracowników i obejmować takie role, jak architekt programu, ekspert ds. produktu, ale wina może leżeć również po stronie menedżera, który wyznaczył niekompetentnego eksperta lub programistę.

(Fot. Getty Images)

Niektórzy specjaliści eksponują koncepcję "odpowiedzialności rozproszonej". Jako że operacje AI powstają w wyniku długiego, złożonego łańcucha interakcji między człowiekiem a robotem - od programistów i projektantów po producentów, dostawców i użytkowników, z których każdy ma inne motywacje i wiedzę - można uznać, że wynik sztucznej inteligencji był wynikiem rozproszonego działania.

Jednym ze sposobów zapewnienia, że sztuczna inteligencja będzie działać na rzecz "zapobiegania złu i wspierania dobra” może być wdrożenie ram etycznych rozproszonej odpowiedzialności, w których wszyscy uczestnicy będą odpowiedzialni za swoją rolę w kreowaniu wyniku AI. Jednak taki postulat, bez konkretów, pozostaje tylko szlachetnym apelem.

Zaawansowane systemy AI nie tylko wdrażają algorytmy zaprojektowane przez człowieka, ale tworzą własne. Czy istniejące systemy odpowiedzialności przewidują takie sytuacje, czy też należy stworzyć nowe regulacje prawne?

Zgodnie z uchwałą Parlamentu Europejskiego z 2017 r. w sprawie sztucznej inteligencji odpowiedzialność prawną za działanie (lub zaniechanie) sztucznej inteligencji tradycyjnie należy przypisywać człowiekowi: właścicielowi, programiście, producentowi lub operatorowi sztucznej inteligencji.

Jednak problemy pojawiają się przy zaawansowanych systemach, takich jak samouczące się sieci neuronowe. Jeśli programista nie może przewidzieć działania AI, ponieważ w wyniku szeregu procesów sztuczna inteligencja uległa znacznym zmianom w stosunku do pierwotnego projektu, czy może zostać pociągnięty do odpowiedzialności za to działanie? Pojawia się ryzyko luki w odpowiedzialności.

Proponuje się m.in., aby programista sieci neuronowej w coraz większym stopniu stawał się "twórcą organizmów programowych”, mającym bardzo niewielką kontrolę poza kodowaniem, ponieważ zachowanie AI odbiega od pierwotnego programowania, a bardziej staje się produktem jej interakcji z otoczeniem. Ta luka w odpowiedzialności - zdaniem ekspertów - wymaga doprecyzowania i wdrożenia odpowiednich przepisów i zasad etycznych.

Twoja ocena:

Już zagłosowałeś!

Aktualna ocena: 3.28 / 14

Comments
  • Help You
    14 March, 10:57

    i dlatego w PL trzeba wrocić do ręcznego liczenia głosów! a PIS i PO sługusów globalistów odsunąć od władzy!

Dodaj komentarz
Advertisement
Advertisement
Rates by NBP, date 21.05.2024
GBP 4.9798 złEUR 4.2572 złUSD 3.9175 złCHF 4.3052 zł

News


Advertisement

Sport


Advertisement