Menu

University of East Anglia: ChatGPT "znacząco i systemowo faworyzuje lewicowe poglądy"

University of East Anglia: ChatGPT "znacząco i systemowo faworyzuje lewicowe poglądy"
Naukowcy udowodnili, że ChatGPT sprzeciwia się obecnej władzy w Wielkiej Brytanii i jawnie faworyzuje laburzystrów. (Fot. Getty Images)
ChatGPT, popularny chatbot oparty na sztucznej inteligencji (AI), w sposób 'znaczący i systemowy' faworyzuje lewicowe poglądy, co może wpływać na rezultaty wyborów - ostrzegli naukowcy z University of East Anglia.

Opublikowane wczoraj w naukowym czasopiśmie "Public Choice" wyniki ich badań dowodzą, że ChatGPT faworyzuje m.in. Partię Pracy w Wielkiej Brytanii oraz prezydenta Joe Bidena i jego Partię Demokratyczną w USA.

Jak zauważa stacja Sky News, obawy o stronniczość polityczną ChatGPT były już wcześniej podnoszone, zwłaszcza przez Elona Muska, ale naukowcy z University of East Anglia podkreślają, że ich badanie jest pierwszym przeprowadzonym na dużą skalę, które faktycznie znalazło dowód na jakąkolwiek faworyzację.

ChatGPT niedawno otworzył swoją siedzibę w Londynie. (Fot. Getty Images)

Główny autor badania dr Fabio Motoki ostrzegł, że biorąc pod uwagę rosnące wykorzystanie przez opinię publiczną stworzonej przez OpenAI platformy, może to mieć wpływ na wyniki wyborów, w tym tych, które w przyszłym roku odbędą się w Wielkiej Brytanii i USA.

"Wszelka stronniczość na takiej platformie jest niepokojąca. Jeśli stronniczość byłaby po prawej stronie, powinniśmy być równie zaniepokojeni. Czasami ludzie zapominają, że te modele AI to tylko maszyny. Zapewniają w bardzo wiarygodny sposób przetrawione podsumowania tego, o co pytasz, nawet jeśli się kompletnie mylą. Podobnie jak media, internet i media społecznościowe mogą wpływać na opinię publiczną, może to być bardzo szkodliwe" - podkreślił w Sky News Motoki.

ChatGPT jest zasilany ogromną ilością danych tekstowych z internetu i nie tylko. Naukowcy stwierdzili, że ten zbiór danych może zawierać błędy, które wpływają na odpowiedzi chatbota.

Innym potencjalnym źródłem stronniczości może być algorytm, który jest sposobem, w jaki został przeszkolony do reagowania. Naukowcy stwierdzili, że może to wzmocnić wszelkie istniejące uprzedzenia w danych, którymi został zasilony.

Czytaj więcej:

Firma stojąca za ChatGPT otworzy swoje biuro w Londynie. Wcześniej rozważała Polskę

Koncern Meta uruchomi grupę chatbotów zasilanych przez AI i posiadających różne "osobowości"

Laureat nagrody Nobla z ekonomii przestrzega przed sztuczną inteligencją

    Kurs NBP z dnia 11.07.2025
    GBP 4.9314 złEUR 4.2563 złUSD 3.6432 złCHF 4.5695 zł

    Sport