OpenAI, tvrtka za umjetnu inteligenciju, postavila je okvir za adresiranje sigurnosti u svojim najnaprednijim modelima, što uključuje ovlasti upravnog odbora da poništi odluke o sigurnosti, prema planu objavljenom na njihovoj web stranici u ponedjeljak.
OpenAI, podržan od strane Microsofta, koristit će svoju najnoviju tehnologiju samo ako se utvrdi da je sigurna u određenim područjima, kao što su kibernetička sigurnost i nuklearne prijetnje. Također, tvrtka osniva savjetodavnu skupinu koja će pregledavati izvješća o sigurnosti i proslijeđivati ih izvršnim direktorima i upravi tvrtke. Iako će izvršni direktori donositi odluke, uprava može ih poništiti.
Od izlaska ChatGPT-a prije godinu dana, potencijalne opasnosti umjetne inteligencije bile su u središtu pažnje istraživača i šire javnosti. Generativna tehnologija umjetne inteligencije očarala je korisnike svojom sposobnošću pisanja poezije i eseja, ali istovremeno izazvala zabrinutost zbog potencijala širenja dezinformacija i manipulacije ljudima.

U travnju, grupa lidera i stručnjaka iz područja umjetne inteligencije potpisala je otvoreno pismo koje traži šestomjesečnu pauzu u razvoju sustava s većom moći od OpenAI-jevog GPT-4, navodeći potencijalne rizike za društvo. Anketa Reuters/Ipsos provedena u svibnju pokazala je da se više od dvije trećine Amerikanaca brine zbog mogućih negativnih učinaka umjetne inteligencije, dok 61 posto vjeruje da bi mogla prijetiti civilizaciji.
Početkom ovog mjeseca, OpenAI odgodila je lansiranje svoje prilagođene GPT trgovine do početka 2024. godine. Tvrtka je predstavila prilagođene GPT modele i trgovinu tijekom svoje prve konferencije za developere u studenom. Izvješća sugeriraju da tvrtka nastavlja “unaprjeđivati” GPT modele na temelju povratnih informacija korisnika.
Prošlog mjeseca, OpenAI je također prošla kroz nevolje kada je njezin upravni odbor smijenio izvršnog direktora Sama Altmana. Altman se vratio u tvrtku nekoliko dana nakon svoje smjene, dok je odbor pretrpio reorganizaciju.