Cookie Consent by Privacy Policies Generator website
Menu

University of East Anglia: ChatGPT 'significantly and systematically favors left-wing views'

University of East Anglia: ChatGPT 'significantly and systematically favors left-wing views'
Naukowcy udowodnili, że ChatGPT sprzeciwia się obecnej władzy w Wielkiej Brytanii i jawnie faworyzuje laburzystrów. (Fot. Getty Images)
ChatGPT, a popular artificial intelligence (AI) chatbot, favors left-wing views in a 'significant and systemic' way that could influence election results, researchers at the University of East Anglia have warned.
Advertisement
Advertisement
News available in Polish

Opublikowane wczoraj w naukowym czasopiśmie "Public Choice" wyniki ich badań dowodzą, że ChatGPT faworyzuje m.in. Partię Pracy w Wielkiej Brytanii oraz prezydenta Joe Bidena i jego Partię Demokratyczną w USA.

Jak zauważa stacja Sky News, obawy o stronniczość polityczną ChatGPT były już wcześniej podnoszone, zwłaszcza przez Elona Muska, ale naukowcy z University of East Anglia podkreślają, że ich badanie jest pierwszym przeprowadzonym na dużą skalę, które faktycznie znalazło dowód na jakąkolwiek faworyzację.

ChatGPT niedawno otworzył swoją siedzibę w Londynie. (Fot. Getty Images)

Główny autor badania dr Fabio Motoki ostrzegł, że biorąc pod uwagę rosnące wykorzystanie przez opinię publiczną stworzonej przez OpenAI platformy, może to mieć wpływ na wyniki wyborów, w tym tych, które w przyszłym roku odbędą się w Wielkiej Brytanii i USA.

"Wszelka stronniczość na takiej platformie jest niepokojąca. Jeśli stronniczość byłaby po prawej stronie, powinniśmy być równie zaniepokojeni. Czasami ludzie zapominają, że te modele AI to tylko maszyny. Zapewniają w bardzo wiarygodny sposób przetrawione podsumowania tego, o co pytasz, nawet jeśli się kompletnie mylą. Podobnie jak media, internet i media społecznościowe mogą wpływać na opinię publiczną, może to być bardzo szkodliwe" - podkreślił w Sky News Motoki.

ChatGPT jest zasilany ogromną ilością danych tekstowych z internetu i nie tylko. Naukowcy stwierdzili, że ten zbiór danych może zawierać błędy, które wpływają na odpowiedzi chatbota.

Innym potencjalnym źródłem stronniczości może być algorytm, który jest sposobem, w jaki został przeszkolony do reagowania. Naukowcy stwierdzili, że może to wzmocnić wszelkie istniejące uprzedzenia w danych, którymi został zasilony.

Czytaj więcej:

Firma stojąca za ChatGPT otworzy swoje biuro w Londynie. Wcześniej rozważała Polskę

Koncern Meta uruchomi grupę chatbotów zasilanych przez AI i posiadających różne "osobowości"

Laureat nagrody Nobla z ekonomii przestrzega przed sztuczną inteligencją

    Advertisement
    Advertisement
    Rates by NBP, date 31.05.2024
    GBP 5.0056 złEUR 4.2678 złUSD 3.9389 złCHF 4.3471 zł
    Advertisement

    Sport


    Advertisement
    Advertisement