Cookie Consent by Privacy Policies Generator website
Menu

Nowoczesne roboty mogą "zarazić się" rasizmem, seksizmem i innymi uprzedzeniami

Nowoczesne roboty mogą "zarazić się" rasizmem, seksizmem i innymi uprzedzeniami
Na zdj.: robot serwujący dania w japońskiej restauracji w Bangkoku. (Fot. PAP/EPA)
Grozi nam stworzenie pokolenia rasistowskich i seksistowskich robotów - ostrzega Andrew Hundt, pracownik Georgia Tech i Laboratorium Interakcji Komputerowych i Robotyki Uniwersytetu Johna Hopkinsa w Baltimore. W swoim badaniu nad sztuczną inteligencją i uprzedzeniami naukowiec wykazał, że sieci neuronowe łatwo przejmują szkodliwe stereotypy, które są rozpowszechnione w internecie.
Reklama
Reklama

Jak informuje "Mail Online", podczas przeprowadzonych przez naukowców z Baltimore testów robot wykazywał wyraźne uprzedzenia dotyczące płci i rasy - faworyzował mężczyzn względem kobiet i osoby białe względem kolorowych. Do tego na podstawie wyglądu czyjejś twarzy wyciągał niczym nieuzasadnione wnioski na temat tego, jaki zawód może wykonywać dana osoba.

"Robot nauczył się toksycznych stereotypów dzięki wadliwym modelom sieci neuronowych" – stwierdził Andrew Hundt, autor wspomnianego badania i pracownik naukowy Georgia Tech i Laboratorium Interakcji Komputerowych i Robotyki Uniwersytetu Johna Hopkinsa w Baltimore. Jego zdaniem ten eksperyment to zły prognostyk.

"Grozi nam stworzenie pokolenia rasistowskich i seksistowskich robotów, bo ludzie i organizacje uznały, że szkolenie ich na bazach danych, które są skażone uprzedzeniami, jest w porządku, zamiast rozwiązać ten problem" - ostrzega badacz.

Do trenowania sztucznej inteligencji w celu rozpoznawania ludzi często korzysta się z ogromnych zbiorów danych dostępnych bezpłatnie w internecie. Dzieje się tak, choć naukowcy od dawna zwracają uwagę na to, że sieć jest pełna niedokładnych i jawnie stronniczych treści, dlatego każdy algorytm zbudowany na podstawie takich danych może być nacechowany tymi samymi wadami.

Dlatego zdaniem ekspertów potrzebne są zmiany w badaniach i praktykach biznesowych, które zapobiegną powielaniu przez maszyny typowych dla ludzi stereotypów.

"Chociaż wiele zmarginalizowanych grup nie zostało w naszych badaniach uwzględnionych, należy przyjąć, że każdy taki system robotyki będzie dla nich niebezpieczny, dopóki nie zostanie udowodnione, że jest inaczej" - podkreśla współautor badania William Agnew z University of Washington.

Badania zostały zaprezentowane na Konferencji nt. Uczciwości, Odpowiedzialności i Przejrzystości (ACM FAccT) 2022 w Seulu.

Reklama
Reklama

Waluty


Kurs NBP z dnia 26.04.2024
GBP 5.0414 złEUR 4.3225 złUSD 4.0245 złCHF 4.4145 zł
Reklama

Sport


Reklama
Reklama