Marea crescândă a algoritmilor care conduc lumea

Controlul mințiiYouTube
Vă rugăm să împărtășiți această poveste!

Tehnocrații au creat deja algoritmi suficienți pentru a rula lumea, dar abia a zgâriat suprafața. La final, dictatura științifică va controla practic totul.  Editor TN

Când răsfoiți online o nouă pereche de pantofi, alegeți un film pe care să îl transmiteți pe Netflix sau să aplicați pentru un împrumut auto, probabil că un algoritm își spune cuvântul despre rezultat.

Formulele matematice complexe joacă un rol în creștere în toate categoriile de viață: de la detectarea cancerelor de piele la sugerarea de noi prieteni pe Facebook, deciderea cine primește un loc de muncă, modul în care sunt utilizate resursele poliției, cine primește asigurarea cu ce cost sau cine este pe un „ lista fără muscă ”.

Algoritmii sunt folosiți - experimental - pentru a scrie articole de știri din date brute, în timp ce campania prezidențială a lui Donald Trump a fost ajutată de specialiștii în comportament care au folosit un algoritm pentru a localiza cele mai mari concentrații de „alegători convinși”.

Dar, în timp ce astfel de instrumente automatizate pot injecta o măsură de obiectivitate în deciziile subiective din trecut, se înregistrează temeri cu privire la lipsa algoritmilor de transparență pe care le poate implica, crescând presiunea de a aplica standarde de etică sau „responsabilitate”.

Omul de știință al datelor Cathy O'Neil avertizează cu privire la formulele „încrezătoare orbește” pentru a determina un rezultat corect.

„Algoritmii nu sunt în mod inerent corecți, deoarece persoana care construiește modelul definește succesul”, a spus ea.

Dezavantaje amplificatoare

O'Neil susține că, deși unii algoritmi pot fi de ajutor, alții pot fi nefasti. În cartea sa din 2016, „Arme de distrugere a matematicii”, ea citează câteva exemple îngrijorătoare din Statele Unite:

  • Școlile publice din Washington DC în 2010 au concediat peste 200 de profesori - inclusiv mai mulți instructori bine respectați - pe baza scorurilor dintr-o formulă algoritmică care a evaluat performanța.
  • Un bărbat diagnosticat cu tulburare bipolară a fost respins pentru angajare la șapte mari comercianți cu amănuntul după ce un test de „personalitate” terță parte l-a considerat un risc ridicat pe baza clasificării sale algoritmice.
  • Multe jurisdicții folosesc „poliția predictivă” pentru a muta resursele în „punctele fierbinți” probabile. O'Neill spune că, în funcție de modul în care datele sunt introduse în sistem, acest lucru ar putea duce la descoperirea mai multor infracțiuni minore și la o „buclă de feedback” care stigmatizează comunitățile sărace.
  • Unele instanțe se bazează pe formule clasificate pe computer pentru a determina pedepsele cu închisoarea și condiționarea condiționată, care pot discrimina minoritățile ținând cont de factori de „risc”, precum cartierele lor și legăturile dintre prieteni sau familie la infracțiuni.
  • În lumea finanțelor, brokerii „răscolesc” datele din surse online și din alte surse în moduri noi de a lua decizii privind creditul sau asigurarea. Acest lucru amplifică prea des prejudecățile împotriva celor defavorizați, susține O'Neil.

Descoperirile sale au fost ecouate într-un raport de la Casa Albă anul trecut, care avertiza că sistemele algoritmice „nu sunt infailibile - se bazează pe intrările imperfecte, logica, probabilitatea și oamenii care le proiectează”.

Raportul a menționat că sistemele de date pot ajuta în mod ideal să elimine părtinirea umană, dar a avertizat împotriva algoritmilor care „dezavantajează sistematic anumite grupuri”.

Citește povestea completă aici ...

Mă abonez
Anunță-mă
oaspete

0 Comentarii
Feedback-uri în linie
Vezi toate comentariile