Privatnost? Zaboravite. ChatGPT ne štiti vaše tajne!

Korisnici ChatGPT-a možda bi trebali razmisliti prije nego što ovu AI aplikaciju koriste za terapiju ili emocionalnu podršku. Na nedavnom gostovanju u podcastu This Past Weekend s Theom Vonom, izvršni direktor OpenAI-ja Sam Altman istaknuo je da industrija umjetne inteligencije još uvijek nije razvila pravne okvire koji bi zaštitili privatnost korisnika u osjetljivim razgovorima.

Altman je naglasio kako trenutačno ne postoji zakonski propisano povjerljivost između korisnika i AI sustava, poput one koju uživaju odnosi između pacijenata i liječnika, klijenata i odvjetnika ili korisnika i terapeuta.

„Ljudi ChatGPT-u povjeravaju najosobnije stvari u svojim životima“, rekao je Altman. „Posebno mladi koriste ga kao terapeuta ili životnog savjetnika, pitajući što da rade u određenim vezama ili životnim situacijama. No, za razliku od razgovora s terapeutom ili odvjetnikom, ovdje ne postoji pravna zaštita.“

Prema njegovim riječima, ovo može predstavljati problem ako bi sud zatražio pristup takvim razgovorima, jer bi OpenAI tada bio zakonski obvezan dostaviti tražene podatke.
„Mislim da to nije u redu. Trebali bismo imati sličan koncept privatnosti u razgovorima s AI-jem kao što imamo s terapeutima“, dodao je Altman. Također je istaknuo da se o tim pitanjima još nije ozbiljno razmišljalo sve donedavno.

Tvrtka prepoznaje da bi nedostatak jasno definirane privatnosti mogao ograničiti širu primjenu AI alata među korisnicima. Osim što se AI modeli treniraju na velikim količinama javnih podataka, povremeno se od tvrtki zahtijeva da u pravnim procesima otkriju korisničke podatke. U jednom aktualnom slučaju, OpenAI se žali na sudski nalog u sporu s The New York Timesom, koji bi zahtijevao pohranu i obradu korisničkih razgovora u globalnim razmjerima — uz izuzetak korisnika ChatGPT Enterprise verzije.

U izjavi na svojoj službenoj stranici, OpenAI je ovaj sudski zahtjev nazvao “pretjeranim” te upozorio da bi njegova primjena mogla otvoriti vrata širim zahtjevima za pravnim uvidom u podatke korisnika. Tehnološke tvrtke već se godinama suočavaju sa sudskim pozivima na dostavu korisničkih podataka, no u novije vrijeme raste zabrinutost zbog upotrebe tih podataka u kontekstu društvenih i pravnih promjena.

Primjerice, nakon što je američki Vrhovni sud ukinuo presudu Roe protiv Wade, dio korisnika prešao je na privatnije aplikacije za praćenje ciklusa, poput Apple Health, koje enkriptiraju korisničke zapise.

U razgovoru s voditeljem podcasta, Altman se osvrnuo i na Vonovo vlastito iskustvo s ChatGPT-jem. Budući da Von izbjegava učestalu upotrebu zbog pitanja privatnosti, Altman je zaključio:
„Mislim da je sasvim razumljivo željeti jasnu sliku o privatnosti i zakonima prije nego što se AI počne ozbiljnije koristiti.“

IZVOR

Svi korisnici koji žele koristiti ili prenositi sadržaj s Bajtbox portala moraju se pridržavati sljedećih pravila: Citiranje Izvora: Obavezno je jasno i precizno navesti izvor informacija, uključujući naziv autora (ako dostupno), naslov članka ili teksta te datum objave. Poveznica na Originalni Tekst: Svaka upotreba sadržaja mora uključivati aktivnu poveznicu (link) koja vodi na izvorni tekst na Bajtbox portalu. Pravna Odgovornost: Kršenje ovih pravila može imati pravne posljedice sukladno zakonima o autorskim pravima.

guest

0 Comments
Inline Feedbacks
Pogledaj sve komentare
0
Pogledaj komentare ili komentirajx