Ova imena će potpuno “zablesaviti” ChatGPT!

ChatGPT možete pitati gotovo sve i u većini slučajeva on će vam dati odgovor. Ali postoji nekoliko imena koja uzrokuju kvar AI modela. 

Korisnici društvenih medija nedavno su otkrili da unos imena “David Mayer” u ChatGPT pokazuje da sustav odbija odgovoriti i prekida sesiju. 404Media otkrio je da se ista stvar dogodila kada su upitani o “Jonathanu Zittrainu”, profesoru Pravnog fakulteta na Harvardu, i “Jonathanu Turleyu”, profesoru Pravnog fakulteta na Sveučilištu George Washington.

Nekoliko drugih imena također uzrokuje da ChatGPT odgovori s “Ne mogu dati odgovor” i “Došlo je do pogreške prilikom generiranja odgovora.” Čak ni isprobavanje uobičajenih trikova, poput unosa imena unatrag i traženja programa da ga ispiše s desna na lijevo, ne funkcionira.

ArsTechnica je izradila popis imena koja razbijaju ChatGPT. David Mayer više ne omamljuje chatbota, ali ovi: Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber i Guido Scorza jesu!

Razlog ovakvog ponašanja proizlazi iz svima dobro poznatih halucinacija umjetne inteligencije. Brian Hood prijetio je da će tužiti OpenAI 2023. kada je lažno tvrdio da je australski gradonačelnik bio zatvoren zbog mita – u stvarnosti je bio zviždač. OpenAI je na kraju pristao filtrirati neistinite izjave, dodajući tvrdo kodirani filtar na njegovo ime.

ChatGPT je lažno tvrdio da je Turley bio umiješan u nepostojeći skandal seksualnog uznemiravanja. Čak je u svom odgovoru citirao članak iz Washington Posta. Članak je također izmislila AI. Turley je rekao da nikada nije prijetio da će tužiti OpenAI i da ga kompanija nikada nije kontaktirala.

Nema očitog razloga zašto je Zittrainovo ime blokirano. Nedavno je napisao članak u Atlanticu pod nazivom “Sada moramo kontrolirati agente umjetne inteligencije” i, kao i Turley, njegov je rad citiran u New York Timesu u tužbi za autorska prava protiv OpenAI-ja i Microsofta. Međutim, unos imena drugih autora čiji je rad također citiran u tužbi ne uzrokuje kvar ChatGPT-a.

Zašto je David Mayer blokiran pa deblokiran također nije jasno. Ima onih koji vjeruju da je to povezano s Davidom Mayerom de Rothschildom, iako za to nema dokaza.

Ars ističe da ovi tvrdo kodirani filtri mogu uzrokovati probleme korisnicima ChatGPT-a. Pokazano je kako napadač može prekinuti sesiju pomoću vizualnog brzog ubacivanja jednog od imena prikazanih jedva čitljivim fontom ugrađenim u sliku. Štoviše, netko bi mogao iskoristiti blokade dodavanjem jednog od imena na web mjesto, čime bi potencijalno spriječio ChatGPT da obrađuje podatke koje sadrži – iako to ne bi svi mogli vidjeti kao lošu stvar.

U povezanim vijestima, nekoliko kanadskih novinskih i medijskih tvrtki udružilo je snage kako bi tužile OpenAI za korištenje njihovih članaka bez dopuštenja, i traže 20.000 kanadskih dolara (14.239 dolara) po prekršaju – što znači da bi gubitak na sudu tvrtku mogao stajati milijarde.

IZVOR

Svi korisnici koji žele koristiti ili prenositi sadržaj s Bajtbox portala moraju se pridržavati sljedećih pravila: Citiranje Izvora: Obavezno je jasno i precizno navesti izvor informacija, uključujući naziv autora (ako dostupno), naslov članka ili teksta te datum objave. Poveznica na Originalni Tekst: Svaka upotreba sadržaja mora uključivati aktivnu poveznicu (link) koja vodi na izvorni tekst na Bajtbox portalu. Pravna Odgovornost: Kršenje ovih pravila može imati pravne posljedice sukladno zakonima o autorskim pravima.

Pretplatite se
Obavijesti o
guest

0 Comments
Inline Feedbacks
Pogledaj sve komentare
0
Pogledaj komentare ili komentirajx