Jedna od velikih prodajnih prednosti korištenja generativnih AI chatbota kao što su Copilot, Gemini i ChatGPT jest ta da mogu pomoći u uštedi vremena odgovarajući na pitanja o kodiranju i programiranju brže nego što bi se moglo učiniti s ljudima koji odgovaraju na iste upite. Međutim, nedavno izvješće tvrdi da ChatGPT nudi puno netočnih odgovora na pitanja o programiranju.
U izvješću koje je predstavljeno ranije u svibnju tijekom Konferencije o interakciji između ljudi i računala, istraživački tim sa Sveučilišta Purdue provjerio je 517 Stack Overflow pitanja koja su poslana u ChatGPT da odgovore.
Tim Sveučilišta Purdue izvijestio je da je ChatGT nudio netočne odgovore na ta pitanja u nevjerojatnih 52 posto slučajeva.
Iako se nuđenje netočnih odgovora na pitanja možda donekle očekuje od AI chatbota, tim Sveučilišta Perdue otišao je dalje, navodeći da su ljudski programeri ipak preferirali ChatGPT odgovore 35 posto vremena “zbog njihove sveobuhvatnosti i dobro artikuliranog stila jezika”. Što je još gore, ljudski programeri nisu uhvatili odgovore koje je ChatGPT napravio pogrešno u 39 posto slučajeva.
Iako je ovo samo jedno istraživanje jednog aspekta značajki ChatGPT-a, ono pokazuje da su generativni AI roboti još uvijek skloni činiti puno pogrešaka i da ljudi možda neće uočiti te pogreške.
Googleov AI pregled, koji je ranije u svibnju postavljen u američkoj regiji za Google pretraživanje, već je generirao čudne sažetke odgovora pune grešaka za neke nizove pretraživanja . Google je pokušao objasniti ove očite pogreške u izjavama danim novinskim kućama poput Gizmoda , navodeći:
Primjeri koje smo vidjeli općenito su vrlo neuobičajeni upiti i ne predstavljaju iskustva većine ljudi. Velika većina AI Pregleda pruža visokokvalitetne informacije, s poveznicama za dublje kopanje na webu.
U izjavi se dodaje da će Google koristiti ove “izolirane primjere” kako bi pomogao “unaprijediti naše sustave”. Ipak, koliko se god Google trudio sakriti mane svog AI-a, i mi sami smo primijetili nevjerojatno velik broj netočnih odgovora. Hoće li se to uskoro popraviti, ostaje nam da vidimo.
IZVOR