Cinci motive pentru care ChatGPT oferă confidențialitate

Surfshark. Creative Commons.
Vă rugăm să împărtășiți această poveste!
Italia a interzis ChatGPT timp de aproximativ o lună înainte de a permite reluarea serviciului. Problemele de confidențialitate sunt uriașe și încă nerezolvate. De exemplu, ChatGPT citește și învață din cărți protejate prin drepturi de autor, reviste, ziare etc. I-a dat cineva permisiunea să facă acest lucru? Nu. Distruge literalmente legile drepturilor de autor.⁃ Editor TN

Consilierul de confidențialitate al Surfshark, Gabriele Kaveckyte, a analizat practicile ChatGPT de colectare a datelor și a prezentat cinci potențiale probleme de confidențialitate legate de colectarea și siguranța datelor pe baza GDPR și a altor reglementări legate de confidențialitate.

ChatGPT este în creștere în popularitate. În același timp, se exprimă îngrijorarea cu privire la practicile îndoielnice de colectare a datelor și siguranța gigantului AI. Această îngrijorare a dus la interzicerea temporară a ChatGPT¹ de către Italia și la crearea grupurilor operative ChatGPT de către Comitetul European pentru Protecția Datelor (EDPB) și Departamentul pentru Securitate Internă (DHS) al SUA. Consilierul de confidențialitate al Surfshark a analizat practicile de colectare a datelor ChatGPT și a descoperit câteva posibile defecte. Multe dintre problemele discutate au fost prezentate de Autoritatea Italiană pentru Protecția Datelor² la justificarea interdicției temporare.

Potențiale probleme de confidențialitate a datelor la ChatGPT:

Numărul #1

ChatGPT a colectat o cantitate masivă de date cu caracter personal pentru a-și antrena modelele, dar este posibil să nu fi avut o bază legală pentru o astfel de colectare de date. Conform GDPR³, datele colectate fără un temei legal adecvat (cum ar fi consimțământul utilizatorului) sunt ilegale. Acesta a fost unul dintre principalele motive pentru interzicerea temporară a ChatGPT din Italia. Ca răspuns, Open AI a oferit recent un formular pentru utilizatorii din UE⁴, permițându-le să renunțe la colectarea datelor lor pentru a instrui modelul AI. Cu toate acestea, formularul este disponibil doar în UE, iar cei care nu completează activ formularul se pot aștepta ca datele lor să rămână pe platformă.

Numărul #2

Conform GDPR³, operatorii de date (în acest caz, ChatGPT/Open AI) trebuie să informeze utilizatorii ale căror date le colectează și le folosesc. Cu toate acestea, ChatGPT nu a notificat toate persoanele ale căror date au fost folosite pentru a antrena modelul AI² – un alt motiv pentru care utilizarea acestor date poate fi ilegală. Deoarece mulți oameni nu știu că datele lor au fost colectate și sunt folosite de ChatGPT, ei nu știu că ar trebui să completeze formularul de renunțare⁴, amplificând și mai mult problema culegerii de date potențial ilegale.

Numărul #3

ChatGPT nu este în conformitate cu principiul acurateței – Furnizarea de către platformă de informații inexacte poate afecta în mod semnificativ reputația unei persoane. De exemplu, poate afirma în mod fals vinovăția unei persoane sau o poate acuza de crime cu care nu au fost niciodată asociate⁵.

Numărul #4

ChatGPT nu are instrumente eficiente de verificare a vârstei care să împiedice copiii sub 13 ani să-l folosească. Ca răspuns la interdicția Italiei, ChatGPT a dezvoltat un instrument pentru a determina dacă utilizatorii au peste 13 ani⁴. Cu toate acestea, ChatGPT nu poate confirma că vârsta introdusă este vârsta adevărată a utilizatorului, ceea ce înseamnă că copiii pot minți că sunt adulți și pot folosi platforma în mod liber.

Numărul #5

ChatGPT nu are verificarea consimțământului parental pentru copiii cu vârsta cuprinsă între 13 și 18 ani. Termenii de utilizare ai ChatGPT⁶ impun ca copiii cu vârsta cuprinsă între 13 și 18 ani să primească consimțământul părinților înainte de a utiliza platforma. Cu toate acestea, nu există un proces de verificare pentru a se asigura că acest consimțământ a fost dat, ceea ce înseamnă că și copiii între aceste vârste pot folosi platforma în mod liber, chiar și fără consimțământ.

Referinte:

¹ Luca Bertuzzi (2023) Autoritatea italiană de protecție a datelor interzice ChatGPT invocând încălcări ale confidențialității;

² Dispoziția Autorității Italiane pentru Protecția Datelor (2023) din 30 martie 2023 0[9870832];

³ Regulamentul general privind protecția datelor (2023);

⁴ Kelvin Chan (2023) OpenAI: ChatGPT înapoi în Italia după ce a îndeplinit cerințele organelor de supraveghere;

⁵ Pranshu Verma și Will Oremus (2023) ChatGPT au inventat un scandal de hărțuire sexuală și au numit acuzat un adevărat profesor de drept;

⁶ Condiții de utilizare Open AI (2023).

Citește povestea completă aici ...

Despre editor

Patrick Wood
Patrick Wood este un lider important și critic în dezvoltarea durabilă, economia ecologică, agenda 21, agenda 2030 și tehnocrația istorică. Este autorul revistei Technocracy Rising: The Trojan Horse of Global Transformation (2015) și co-autor al Trilaterals Over Washington, Volumes I and II (1978-1980) cu regretatul Antony C. Sutton.
Mă abonez
Anunță-mă
oaspete

3 Comentarii
Cele mai vechi
Cele mai noi Cele mai votate
Feedback-uri în linie
Vezi toate comentariile
Steve

Ar trebui luată în considerare o acțiune colectivă?

Steve

Costum de acțiune de clasă!

[…] Cinci motive pentru care ChatGPT oferă confidențialitate […]