Experți: Națiunile europene ar trebui să interzică punctarea creditului social

Europa
Vă rugăm să împărtășiți această poveste!
image_pdfimage_print
Tehnocrații din UE se bazează pe supravegherea totală și controlul oamenilor, dar un grup consultativ independent, la nivel înalt, a avertizat împotriva utilizării AI pentru supravegherea în masă și punctarea creditului social. ⁃ TN Editor

Un grup de experți independenți a primit sarcina de a oferi consultanță Comisia Europeană pentru a-și informa răspunsul regulamentar în ceea ce privește inteligența artificială - pentru a susține obiectivul declarat al parlamentarilor din UE de a asigura că evoluțiile AI sunt „centrate pe om” - și-a publicat recomandările de politică și investiții.

Aceasta urmează orientări etice anterioare pentru „AI de încredere”, prezentate de Grupul de experți la nivel înalt (HLEG) pentru AI înapoi Aprilie, când Comisia a solicitat și participanților să testeze proiectul de reguli.

Recomandările complete de politică AI HLEG cuprind un document de pagini 50 extrem de detaliat - care poate fi descărcat de pe acesta pagină web. grupul, care a fost creat în iunie 2018, este format dintr-un mix de experți din industrie AI, reprezentanți ai societății civice, consilieri politici și politici, medici universitari și experți juridici.

Documentul include avertismente cu privire la utilizarea AI pentru supravegherea în masă și punctarea cetățenilor UE, cum ar fi Sistemul de credite sociale din China, grupul solicitând o interdicție absolută a „scorării în masă a indivizilor activată de AI”. De asemenea, îndeamnă guvernele să se angajeze să nu se angajeze în supravegherea curată a populațiilor în scopuri de securitate națională. (Deci, poate este la fel de bine ca Marea Britanie a votat să părăsească UE, având în vedere puterea de supraveghere a statului a trecut în lege la sfârșitul lui 2016.)

„În timp ce poate exista o tentație puternică pentru guverne de a„ asigura securitatea societății ”prin construirea unui sistem de supraveghere omniprezentă bazat pe sisteme AI, acest lucru ar fi extrem de periculos dacă este împins la niveluri extreme”, scrie HLEG. „Guvernele ar trebui să se angajeze să nu se angajeze în supravegherea în masă a persoanelor și să implementeze și să procure numai sisteme AI de încredere, concepute pentru a respecta legea și drepturile fundamentale, aliniate cu principii etice și robuste din punct de vedere socio-tehnic.”

Grupul solicită, de asemenea, ca supravegherea comercială a persoanelor și societăților să fie „combătută” - sugerând răspunsul UE la potențialul și potențialul de utilizare greșită a tehnologiilor AI ar trebui să includă asigurarea că urmărirea online a persoanelor este „strict în conformitate cu drepturile fundamentale, cum ar fi confidențialitatea ”, Inclusiv (specifică grupul) atunci când se referă la servicii„ gratuite ”(deși cu o ușoară atenționare cu privire la necesitatea de a analiza modul în care modelele de afaceri sunt afectate).

Săptămâna trecută, paznicul de protecție a datelor din Marea Britanie a lansat o lovitură și mai specifică peste arcurile industriei de anunțuri comportamentale online - avertizând că procesarea la scară masivă a adtech a datelor personale ale utilizatorilor de web pentru direcționarea anunțurilor nu respectă standardele de confidențialitate ale UE. S-a spus industriei că practicile sale de încălcare a drepturilor trebuie să se schimbe, chiar dacă biroul comisarului informațiilor nu urmează să dea jos ciocanul. Dar avertizarea reformei era clară.

Pe măsură ce factorii de decizie din UE lucrează la elaborarea unui cadru de reglementare care respectă drepturile pentru AI, încearcă să direcționeze următorii zece ani + de dezvoltări tehnologice de ultimă oră în regiune, atenția și controlul mai larg care vor atrage practicile digitale și modelele de afaceri pare a fi stimulatoare. o curățare a practicilor digitale problematice care au fost capabile să prolifereze în condițiile unei reglementări de atingere deloc sau foarte ușoare, până acum.

HLEG solicită, de asemenea, sprijin pentru dezvoltarea mecanismelor de protecție a datelor cu caracter personal și pentru ca persoanele fizice să „controleze și să fie împuternicite de datele lor” - despre care susțin că ar aborda „unele aspecte ale cerințelor de AI de încredere”.

„Instrumentele ar trebui dezvoltate pentru a asigura o implementare tehnologică a GDPR și pentru a dezvolta păstrarea / confidențialitatea vieții private prin proiectarea metodelor tehnice pentru a explica criteriile, cauzalitatea procesării datelor cu caracter personal a sistemelor AI (cum ar fi învățarea automată federalizată)”, scriu ei.

„Susțineți dezvoltarea tehnologică a tehnicilor de anonimizare și criptare și elaborați standarde pentru schimbul securizat de date bazat pe controlul datelor cu caracter personal. Promovarea educației publicului larg în gestionarea datelor cu caracter personal, inclusiv conștientizarea și abilitarea persoanelor în procesele de luare a deciziilor bazate pe date personale AI. Creați soluții tehnologice pentru a oferi indivizilor informații și control asupra modului în care datele lor sunt utilizate, de exemplu pentru cercetare, privind gestionarea consimțământului și transparența peste granițele europene, precum și orice îmbunătățiri și rezultate care au rezultat din acest aspect și să dezvolte standarde sigure. schimb de date bazat pe controlul datelor personale. "

Citește povestea completă aici ...

Alătură-te listei noastre de mail!


Technocracy.News este numai site web de pe Internet care raportează și critică tehnocrația. Vă rugăm să luați un minut pentru a susține activitatea noastră despre Patreon!
Avatar
1 Subiecte de comentariu
0 Răspunsuri la răspunsuri
0 Urmaritori
Cel mai comentat comentariu
Cea mai tare comentariu
0 Autorii comentariilor
Autorii comentariilor recente
Abonează-te la canal
cele mai noi cele mai vechi cel mai votat
Anunță-mă
Trackback

[…] Articol original […]