Un avertisment pe care trebuie să îl introduc este că procesul de învățare al inteligenței artificiale consumă literalmente tot ce este pe Internet, care conține un procent ridicat de informații trezite/părtinitoare. Învățarea din povești, cărți, videoclipuri, etc. poate fi suficientă pentru a avea ca rezultat o IA trezită. Cu toate acestea, ar fi posibil să se modifice programatic concluziile făcute, dar nu s-a depus niciun efort în acest sens. ⁃ TN Editor
Ce faci dacă deciziile care erau luate înainte de oameni, cu toate părtinirile lor, încep să fie luate de algoritmi care sunt matematic incapabili de părtinire? Dacă ești rațional, ar trebui să sărbătorești. Dacă ești un liberal militant, recunoști această evoluție pentru amenințarea de moarte care este și te străduiești să preia controlul.
Puteți vedea acest lucru la conferințele AI. Săptămâna trecută am participat la ediția 2020 a NeurIPS, cea mai importantă conferință internațională de învățare automată. Ceea ce a început ca o mică adunare reunește acum destui oameni pentru a umple o arenă sportivă. Anul acesta, pentru prima dată, NeurIPS a cerut ca majoritatea documentelor să includă o declarație de „impact mai larg” și să fie supuse revizuirii de către un comitet de etică. Fiecare lucrare care descrie cum să accelereze un algoritm, de exemplu, trebuie să aibă acum o secțiune despre bunurile și relele sociale ale acestui obscur progres tehnic. „Indiferent de calitatea științifică sau de contribuție”, se spunea în apelul de lucrări, „o prezentare poate fi respinsă pentru... inclusiv metode, aplicații sau date care creează sau întăresc părtinirea neloială”.
Aceasta a fost doar ultima tură a clichetului. Cele anterioare au inclus redenumirea conferinței cu ceva mai corect din punct de vedere politic și solicitarea participanților să accepte în mod explicit un „cod de conduită” cuprinzător înainte de a se putea înregistra, ceea ce permite conferinței să-i dea afară pe participanți pentru că au postat ceva pe rețelele sociale pe care oficialii l-au dezaprobat. Mai serios, un întreg subdomeniu al AI a apărut cu scopul expres de, printre altele, algoritmi de „debiasare”. Asta e acum în plină desfășurare.
Am postat câteva tweet-uri care ridicau întrebări despre cele mai recente modificări - și mafia de anulare a venit asupra mea. Insulte, batjocuri, amenințări – cum vrei să spui. Ai crede că oamenii de știință ar fi mai presus de astfel de comportamente, dar nu. Am subliniat că NeurIPS este un outlier în ceea ce privește necesitatea unor declarații de impact mai largi, iar cei care anulează au schimbat subiectul în mod repetat. Am argumentat împotriva politizării inteligenței artificiale, dar au considerat asta ca pe o negare a faptului că orice considerație etică este valabilă. Un director corporativ de cercetare în domeniul învățării automate, de asemenea profesor Caltech, a publicat pe Twitter pentru ca toți să vadă o listă lungă de oameni de anulat, singura lor crimă fiind că m-au urmărit sau au apreciat unul dintre tweeturile mele. Aceeași mulțime a reușit să facă publicația universității mele o declarație prin care să-mi dezavuezi părerile și să-și reafirme acreditările liberale.
De ce tam-tam? Datele pot avea părtiniri, desigur, la fel ca oamenii de știință din date. Și algoritmii care sunt codați de oameni pot face, în principiu, orice le spunem. Dar algoritmii de învățare automată, ca aproape toți algoritmii pe care îi găsiți în manualele de informatică, sunt în esență doar formule matematice complexe care nu știu nimic despre rasă, sex sau statut socioeconomic. Ei nu pot fi rasiști sau sexisti mai mult decât poate formula y = ax + b.
Cea mai bine vândută carte a lui Daniel Kahneman, Gândire, rapid și lent, are un întreg capitol despre modul în care algoritmii sunt mai obiectivi decât oamenii și, prin urmare, iau decizii mai bune. Pentru mintea liberală militantă, totuși, ele sunt gropi de nelegiuire și trebuie curățate.
Ceea ce înseamnă curățarea algoritmilor, în practică, este inserarea în ei a unor prejudecăți care favorizează grupuri specifice, de fapt restabilind în formă automată controalele sociale asupra cărora stânga politică este atât de intenționată. „Debiasing”, cu alte cuvinte, înseamnă adăugarea de părtinire. Nu este surprinzător, acest lucru face ca algoritmii să funcționeze mai rău la funcția dorită. Algoritmii de notare a cardurilor de credit pot respinge candidați mai calificați pentru a se asigura că sunt acceptați același număr de femei și bărbați. Algoritmii de consultare pentru eliberarea condiționată pot recomanda eliberarea mai multor infractori periculoși de dragul eliberării unui număr proporțional de albi și negri. Unii susțin chiar interzicerea utilizării în algoritmi a tuturor variabilelor corelate cu rasa sau sexul, pe motiv că ele echivalează cu o linie roșie. Acest lucru nu numai că ar face în mod esențial imposibile învățarea automată și toate beneficiile sale, dar este deosebit de ironic, având în vedere că acele variabile sunt exact ceea ce avem nevoie pentru a separa deciziile de cele pe care vrem să le excludem.
Dacă puneți la îndoială aceasta sau oricare alta dintr-o gamă largă de cerințe liberale la adresa inteligenței artificiale, sunteți în suferință. Cu cât este mai proeminent cercetătorul care este anulat, cu atât mai bine, deoarece transmite cel mai înfricoșător mesaj tuturor celorlalți, în special cercetătorilor juniori. Jeff Dean, legendarul șef al IA al Google, și Yann LeCun, om de știință șef al Facebook și co-fondator al învățării profunde, au ambii s-au regăsit la capătul primitor al nemulțumirii grupului liberal.
Până acum, conservatorii au fost în mare măsură nevăzători de încălcarea accelerată a politicii progresiste asupra IA. Dacă AI ar fi încă un domeniu obscur și imatur, ar putea fi OK, dar timpul pentru asta a trecut de mult. Algoritmii ne conduc din ce în ce mai mult viețile și pot impune o societate militant liberal (în realitate iliberală) pe ușa din spate. De fiecare dată când faci o căutare pe web, folosești rețelele sociale sau primești recomandări de la Amazon sau Netflix, algoritmii aleg ceea ce vezi. Algoritmii ajută la selectarea candidaților pentru locuri de muncă, a alegătorilor pe care să îi vizeze în campaniile politice și chiar și a persoanelor de până acum. Întreprinderile și legislatorii deopotrivă trebuie să se asigure că nu sunt modificate. Și toți trebuie să fim conștienți de ceea ce se întâmplă, astfel încât să putem avea un cuvânt de spus. Eu, unul, după ce am văzut cum progresiştii vor atribui cu bucurie prejudecăţi chiar şi algoritmilor care în mod transparent nu pot avea, am început să pun la îndoială viziunea ortodoxă asupra prejudecăţilor umane. Suntem într-adevăr la fel de profund și iremediabil de rasiști și sexişti pe cât pretind ei? Nu cred.
Pedro Domingos este profesor emerit de informatică și inginerie la Universitatea din Washington.
[…] Citește articolul original […]
După estimarea mea, după ce vor dezactiva Internetul (în curând), acesta va reporni cu GPT și Bard, etc. al., ca noi și singurele noastre opțiuni de motor de căutare. Adică vom fi hrăniți cu orice vor ei să știm și doar cu ceea ce vor ei să știm. A dispărut „acum sunteți liber să vă deplasați prin cabină”. Uf. Tine minte asta? „Când folosești Google, primești mai multe răspunsuri? Bineînțeles că faci. Ei bine, asta e un bug. Avem mai multe erori pe secundă în lume. Ar trebui să vă putem oferi răspunsul corect... Citeste mai mult "
Îmi place această afirmație, „algoritmi care sunt matematic incapabili de părtinire”. Algoritmii sunt coduri pe care le creează bibliotecile tehnice. Desigur, sunt capabili de părtinire. Aș face un pas mai departe spunând că întregul scop al AI și al algoritmilor în general este astfel încât creatorii lor să ne îndrume către o singură regulă, o singură viziune, un răspuns profitabil și acceptabil. În ceea ce privește cumpărăturile, evident că ne vor direcționa banii acolo unde își doresc. Nu ar cheltui miliarde pentru toate acestea decât dacă vor primi o recompensă în numerar. Dacă AI-urile ar fi cu adevărat imparțiale, niciuna dintre acestea... Citeste mai mult "
[…] Liberalii militanti se politizează […]