Marea crescândă a algoritmilor care conduc lumea

Controlul mințiiYouTube
Vă rugăm să împărtășiți această poveste!
image_pdfimage_print

Tehnocrații au creat deja algoritmi suficienți pentru a rula lumea, dar abia a zgâriat suprafața. La final, dictatura științifică va controla practic totul. Editor TN

Când răsfoiți online o nouă pereche de pantofi, alegeți un film pe care să îl transmiteți pe Netflix sau să aplicați pentru un împrumut auto, probabil că un algoritm își spune cuvântul despre rezultat.

Formulele matematice complexe joacă un rol din ce în ce mai mare în toate domeniile: de la detectarea cancerelor de piele până la sugerarea noilor prieteni de pe Facebook, decizia cine primește un loc de muncă, modul în care sunt dislocate resursele poliției, cine primește asigurări la ce costuri sau cine este pe un „ listă fără zbor ”

Algoritmii sunt folosiți - experimental - pentru a scrie articole de știri din date brute, în timp ce campania prezidențială a lui Donald Trump a fost ajutată de marketeri comportamentali care au folosit un algoritm pentru a localiza cele mai mari concentrații de „alegători persuasibili”.

Dar, în timp ce astfel de instrumente automate pot injecta o măsură de obiectivitate în deciziile subiective de odinioară, temerile cresc din cauza lipsei algoritmilor de transparență care pot atrage, cu creșterea presiunii pentru a aplica standarde de etică sau „responsabilitate”.

Omul de știință de date Cathy O'Neil avertizează cu privire la formulele de „încredere orbă” pentru a determina un rezultat corect.

"Algoritmii nu sunt inerent corecți, deoarece persoana care construiește modelul definește succesul", a spus ea.

Dezavantaje amplificatoare

O'Neil susține că, deși unii algoritmi pot fi de ajutor, alții pot fi nefiresc. În cartea sa 2016, „Arme de distrugere matematică”, ea citează câteva exemple tulburătoare în Statele Unite:

  • Școlile publice din Washington DC din 2010 au concediat mai mult decât profesorii 200 - inclusiv mai mulți instructori bine respectați - pe baza scorurilor într-o formulă algoritmică care a evaluat performanța.
  • Un bărbat diagnosticat cu tulburare bipolară a fost respins pentru angajare la șapte comercianți importanți, după ce un test de „personalitate” al unei terțe părți îl considera un risc ridicat bazat pe clasificarea algoritmică.
  • Multe jurisdicții folosesc „poliție predictivă” pentru a muta resursele către „punctele fierbinți”. O'Neill spune că, în funcție de modul în care datele sunt introduse în sistem, acest lucru ar putea duce la descoperirea mai multor infracțiuni minore și la o „buclă de feedback” care stigmatizează comunități sărace.
  • Unele instanțe se bazează pe formule clasificate pe computer pentru a determina pedepse cu închisoarea și condiții de libertate condiționată, care pot discrimina minoritățile, luând în considerare factori de „risc”, cum ar fi vecinătatea lor, legăturile cu prietenii sau familia cu criminalitatea.
  • În lumea finanțelor, brokerii „rascumpă” date din surse online și din alte surse în moduri noi de a lua decizii cu privire la credit sau asigurare. Acest lucru amplifică prea des prejudiciile împotriva celor defavorizați, susține O'Neil.

Descoperirile ei au avut ecou într-un raport al Casei Albe de anul trecut, avertizând că sistemele algoritmice „nu sunt infailibile - se bazează pe inputurile imperfecte, logica, probabilitatea și oamenii care le proiectează”.

Raportul a menționat că sistemele de date pot ajuta în mod ideal să elimine prejudecățile umane, dar au avertizat împotriva algoritmilor „dezavantajând sistematic anumite grupuri”.

Citește povestea completă aici ...

Alătură-te listei noastre de mail!


Technocracy.News este numai site web de pe Internet care raportează și critică tehnocrația. Vă rugăm să luați un minut pentru a susține activitatea noastră despre Patreon!
Avatar
Abonează-te la canal
Anunță-mă