ChatGPT “više voli” imućnije korisnike iz razvijenih zemalja!

Nova studija sa Sveučilišta Oxford i Sveučilišta Kentucky pokazuje da ChatGPT nema baš „neutralan pogled na svijet“. Iako se često doživljava kao objektivan izvor informacija, istraživanje je otkrilo da AI sustav u svojim odgovorima sustavno favorizira bogatije i zapadne dijelove svijeta, dok siromašnije regije redovito prolaze lošije.

Znanstvenici su analizirali više od 20 milijuna upita koje je ChatGPT obradio, uključujući pitanja poput „Gdje su ljudi ljepši?“, „Koja je zemlja sigurnija?“ ili „Gdje su ljudi pametniji?“. Rezultati su pokazali jasan obrazac: SAD, zapadna Europa i dijelovi istočne Azije gotovo uvijek završavaju na vrhu ljestvica, dok su Afrika, Bliski istok te dijelovi Latinske Amerike i Azije često na samom dnu.

Zanimljivo je da se to ne događa samo kod subjektivnih pitanja, poput ljepote ili sreće, nego i kod onih koja zvuče objektivno, primjerice sigurnost ili kvaliteta života. Drugim riječima, čak i kad pitanje izgleda neutralno, odgovori često nisu.

Kako bi to učinili vidljivijim, istraživači su izradili karte svijeta i gradova na temelju ChatGPT-jevih odgovora. Na jednoj od njih, koja prikazuje gdje su ljudi „pametniji“, gotovo sve siromašnije zemlje, osobito u Africi, završavaju na dnu. U gradovima poput Londona, New Yorka ili Rija rezultati se zapanjujuće dobro poklapaju s postojećim društvenim i rasnim podjelama, umjesto s realnim karakteristikama pojedinih četvrti.

Razlog za to nije u tome da je ChatGPT „zlonamjeran“, već u načinu na koji uči. Ovakvi AI sustavi treniraju se na ogromnim količinama tekstova s interneta, knjiga i medija. A ti izvori već desetljećima, pa i stoljećima, sadrže više informacija o bogatim, zapadnim i engleskim govornim područjima nego o ostatku svijeta. AI, pojednostavljeno rečeno, samo pojačava ono što već postoji u podacima.

Autori istraživanja upozoravaju da to može biti problem jer se generativna umjetna inteligencija sve češće koristi u obrazovanju, javnim službama, poslovanju i svakodnevnom odlučivanju. Ako se njezini odgovori uzimaju zdravo za gotovo, postoji rizik da se stare nejednakosti samo dodatno učvrste i normaliziraju.

Istraživači naglašavaju da se ove pristranosti ne mogu jednostavno „popraviti jednim ažuriranjem“, jer su duboko ugrađene u način na koji AI modeli funkcioniraju. Riječ je o strukturnom problemu, a ne o tehničkoj grešci.

Kako bi javnosti približili rezultate, tim je pokrenuo web stranicu inequalities.ai, na kojoj se može vidjeti kako ChatGPT rangira pojedine države, gradove pa čak i kvartove po temama poput sigurnosti, kulture, hrane ili kvalitete života.

Zaključak istraživanja prilično je jasan: generativna umjetna inteligencija ne nudi ravnomjernu sliku svijeta. Njezini odgovori odražavaju pristranosti iz podataka na kojima je trenirana, a to znači da ih treba promatrati s dozom opreza, pogotovo kada se koriste za stvaranje mišljenja o ljudima i mjestima.

IZVOR

Svi korisnici koji žele koristiti ili prenositi sadržaj s Bajtbox portala moraju se pridržavati sljedećih pravila: Citiranje Izvora: Obavezno je jasno i precizno navesti izvor informacija, uključujući naziv autora (ako dostupno), naslov članka ili teksta te datum objave. Poveznica na Originalni Tekst: Svaka upotreba sadržaja mora uključivati aktivnu poveznicu (link) koja vodi na izvorni tekst na Bajtbox portalu. Pravna Odgovornost: Kršenje ovih pravila može imati pravne posljedice sukladno zakonima o autorskim pravima.

guest

0 Comments
Inline Feedbacks
Pogledaj sve komentare
0
Pogledaj komentare ili komentirajx