Sztuczna inteligencja potrafi odczytać z fal mózgowych, co widzimy
Badacze zgromadzili zbiory skanów MRI mózgów ponad 50 osób, którym podczas skanowania wyświetlono od 1 200 do 5 000 obrazów przedstawiających zwierzęta, żywność, budynki i ludzi wykonujących różne czynności.
Następnie sztuczna inteligencja dopasowała skany mózgu do obrazów i wygenerowała indywidualny model dla każdego uczestnika. Modele te pozwalają komputerowi "czytać w myślach" - odtwarzać obrazy, na które patrzy dana osoba.
"Potrafi odczytać aktywność twojego mózgu, tak jak ChatGPT rozumie naturalne języki. A następnie tłumaczy ją na język zrozumiały dla Stable Diffusion (sztuczna inteligencja typu open source, która generuje obrazy na podstawie tekstu" - tłumaczy serwisowi Euronews Jiaxin Qing z Chińskiego Uniwersytetu w Hongkongu, kierownik badania. Zdekodowane obrazy okazały się podobne do tych, które pokazano uczestnikom.
Zdaniem Chen Zijiao z Katedry Medycyny Narodowego Uniwersytetu Singapuru ta technologia może kiedyś okazać się przydatna dla osób z niepełnosprawnościami, choćby do sterowania robotami, na przykład sztucznymi kończynami, albo komunikacji z otoczeniem w przypadku osób, które czasowo lub stale nie mogą mówić.
Rozwój "czytającej w myślach" sztucznej inteligencji jest możliwy dzięki coraz większej dostępności danych MRI mózgu oraz coraz większym mocom obliczeniowym, które można wykorzystać do ich przetwarzania. Jednak zdaniem należącej do zespołu tworzącego MinD-Vis profesor Juan Helen Zhou, potrwa jeszcze wiele lat, zanim system będzie rzeczywiście mógł czytać w ludzkich umysłach.
To straszne co oni robią
Ta inteligencja zabije ludzi