Badacze krytykują technologię rozpoznawania emocji
AI Now Institute prowadzi interdyscyplinarne badania nad społecznymi konsekwencjami wdrażania sztucznej inteligencji. W najnowszym raporcie poddaje miażdżącej krytyce technologię rozpoznawania emocji.
Można w nim przeczytać: "Biorąc pod uwagę naukowe podstawy technologii rozpoznawania emocji - podkategorii rozpoznawania twarzy - która niby wykrywa: osobowość, zdrowie psychiczne i inne stany wewnętrzne, nie należy jej dopuszczać do decydowania w kwestiach dotyczących ważnych aspektów życia, takich jak: typowanie podejrzanych o dokonanie przestępstwa, ocena bólu pacjenta, kto nadaje się na pracownika, a kto nie, jaka ma być stawka ubezpieczenia, na jaką ocenę zasługuje uczeń".
Naukowcy z tego placówki podkreślają, że systemy sztucznej inteligencji są już stosowane w wielu istotnych dziedzinach jak: edukacja, opieka zdrowotna, wymiar sprawiedliwości. Jednak zdecydowana większość z nich jest wdrażana przy minimalnym nadzorze i po szczątkowych badaniach nad szerszymi konsekwencjami. Także dlatego, że brakuje standardów pomiaru takich konsekwencji.
Tego typu zaniedbania prowadzą do głośnych afer, w których sztucznej inteligencji przypisuje się pogłębianie nierówności rasowej i płciowej. Do tego badania organizacji non-profit, takich jak składająca się z psychologów Association for Psychological Science, dowodzą, że nawet specjaliście niezwykle trudno z samej mimiki człowieka odczytać, co czuje. Dlaczego więc miała by się w tym połapać maszyna?