Algoritmii pot minți și înșela, dar pot fi opriți?

Vă rugăm să împărtășiți această poveste!
image_pdfimage_print

Acest articol de citit trebuie să merite o mare strigare pentru autorul său, Cathy O'Neill, care ridică în sfârșit întrebările corecte despre AI, riscurile sale intenționate și neintenționate și viețile care ar putea fi distruse din cauza acesteia. Cine spune că tinerii nu pot sau nu „ajung”? Editor TN

Algoritmii pot dicta dacă obțineți o ipotecă sau cât plătiți pentru asigurare. Dar uneori greșesc - și alteori sunt concepute pentru a înșela.

O mulțime de algoritmi merg prost neintenționat. Unele dintre ele, însă, sunt făcute drept infracționale. Algoritmii sunt reguli formale, de obicei scrise cu cod de computer, care fac predicții asupra evenimentelor viitoare bazate pe tipare istorice. Pentru a instrui un algoritm trebuie să furnizați date istorice, precum și o definiție a succesului.

Am văzut că finanțele au fost preluate de algoritmi în ultimele decenii. Algoritmii de tranzacționare utilizează date istorice pentru a prezice mișcările pe piață. Succesul pentru acel algoritm este o mișcare previzibilă pe piață, iar algoritmul este vigilent pentru modelele care s-au întâmplat istoric chiar înainte de această mutare. Modelele de risc financiar folosesc, de asemenea, schimbări istorice ale pieței pentru a prezice evenimente cataclismice într-un sens mai global, deci nu pentru un stoc individual, ci mai degrabă pentru o întreagă piață. Modelul de risc pentru titlurile garantate prin credite ipotecare a fost faimos - intenționat - și încrederea în aceste modele poate fi învinovățită o mare parte din amploarea și daunele ulterioare provocate de criza financiară 2008.

De la 2008, am auzit mai puțin de la algoritmii din finanțe și multe altele de la algoritmii de date mari. Ținta acestei noi generații de algoritmi a fost mutată de la piețele abstracte la persoane fizice. Dar funcționalitatea de bază este aceeași: colectați date istorice despre oameni, profilându-și comportamentul online, locația sau răspunsurile la chestionare și folosiți acel set de date masiv pentru a prezice achizițiile viitoare, comportamentul de vot sau etica muncii.

Proliferarea recentă a modelelor de date mari a trecut în mare măsură neobservată de persoana obișnuită, dar este sigur să spunem că cele mai importante momente în care oamenii interacționează cu sisteme birocratice mari implică acum un algoritm sub forma unui sistem de notare. Intrarea în facultate, obținerea unui loc de muncă, a fi evaluat ca lucrător, obținerea unui card de credit sau a unei asigurări, votarea și chiar poliție sunt realizate în multe cazuri algoritmic. Mai mult decât atât, tehnologia introdusă în aceste decizii sistematice este în mare măsură opacă, chiar și pentru creatorii lor, și până acum a scăpat în mare parte de o reglementare semnificativă, chiar și atunci când nu reușește. Acest lucru face ca problema acestor algoritmi să lucreze în numele nostru să fie și mai importantă și mai urgentă.

Am o ierarhie în patru straturi când vine vorba de algoritmi slabi. În partea de sus se află problemele neintenționate care reflectă prejudecățile culturale. De exemplu, atunci când profesorul de la Harvard, Latanya Sweeney, a descoperit că Google caută nume percepute ca fiind negre anunțuri generate asociate activității infracționale, putem presupune că nu a existat niciun inginer Google care să scrie cod rasist. De fapt, reclamele au fost instruite să fie proaste de către utilizatorii anteriori ai căutării Google, care aveau mai multe șanse de a face clic pe un anunț de cazier atunci când au căutat un nume care sună negru. Un alt exemplu: Rezultatul căutării imaginii Google pentru „păr neprofesional”, care a returnat aproape exclusiv femei negre, este instruit în mod similar de către persoanele care postează sau fac clic pe rezultatele căutării de-a lungul timpului.

Citește povestea completă aici ...

Alătură-te listei noastre de mail!


Technocracy.News este numai site web de pe Internet care raportează și critică tehnocrația. Vă rugăm să luați un minut pentru a susține activitatea noastră despre Patreon!
Avatar
1 Subiecte de comentariu
0 Răspunsuri la răspunsuri
0 Urmaritori
Cel mai comentat comentariu
Cea mai tare comentariu
1 Autorii comentariilor
Juan Juan Autorii comentariilor recente
Abonează-te la canal
cele mai noi cele mai vechi cel mai votat
Anunță-mă
Juan Juan
Oaspete
Juan Juan

„Unitățile instituționale” numerotate sunt programate de la o vârstă fragedă pentru a răspunde anumitor stimuli cu așteptările de a primi anumite recompense, chiar dacă recompensa are doar o valoare nominală (numai cu numele). Acea programare de modificare a comportamentului este instalată într-un mediu concurențial în care Intelligent Quotient (IQ) este obiectivul final. IQ este capacitatea unității instituționale de a memora date și informații și de a le reaminti la coadă sau la cerere. Nu face nicio diferență dacă datele și informațiile sunt incorecte, nuanțate sau chiar impregnate cu absurdități. Facultățile rațiunii, care sunt substanțial diferite de IQ, nu sunt necesare... Citește mai departe »