Vještačka inteligencija ne uspijeva na testu društvene interakcije
Studija provedena na Univerzitetu Johns Hopkins otkrila je da vještačka inteligencija ima ozbiljne nedostatke u tumačenju društvenih interakcija u poređenju s ljudima.

Istraživači sa Univerziteta Johns Hopkins otkrili su da sistemi vještačke inteligencije nisu toliko uspješni kao ljudi u tumačenju dinamičnih društvenih scena. Prema studiji, ljudi daju mnogo konzistentnije rezultate od vještačke inteligencije u identifikovanju i procjeni društvenih interakcija u kratkim video zapisima.
Ovaj nedostatak predstavlja veliki problem, posebno za tehnologije zasnovane na vještačkoj inteligenciji, kao što su autonomna vozila i humanoidni roboti. Jer ovi sistemi moraju biti u stanju da ispravno analiziraju ljudsko ponašanje kako bi sigurno funkcionisali.
Od učesnika je zatraženo da procijene društvene interakcije gledajući video zapise od tri sekunde. Iste isječke je analiziralo i više od 350 modela vještačke inteligencije. Dok su ljudi postigli visok nivo konsenzusa među sobom, modeli vještačke inteligencije dali su nedosljedne rezultate.
Koji su modeli bili koliko uspješni?
Slikovni modeli nisu uspjeli prepoznati ljudske interakcije. Video modeli su bili uspješniji u predviđanju moždane aktivnosti. Jezički modeli dali su relativno bolje rezultate u predviđanju ljudskog ponašanja.
Možda postoji fundamentalna mana
Istraživači vjeruju da je ovaj neuspjeh posljedica fundamentalne strukture AI modela. To je zato što su trenutni modeli razvijeni od strane moždanih regija koje obrađuju statične slike. Međutim, pokretne scene, poput društvenih interakcija, percipiraju različite regije mozga.
„Prepoznavanje lica i objekata na slici bio je veliki korak za umjetnu inteligenciju, ali stvarni život nije statičan. Umjetna inteligencija sada mora razumjeti priču, odnose i kontekst“, rekla je Kathy Garcia, jedna od autorica studije.