Încalcă regulile? AI nu vă va arăta nicio milă

RoboCop, Orion Pictures
Vă rugăm să împărtășiți această poveste!
AI apare ca judecător, juriu și călău. Dacă încalci regulile, nu va exista milă sau înțelegere umană. AI este incapabil de înțelegere sau emoții umane. Pedeapsa va fi rapidă și nu va exista nicio cale de atac sau altă cale de a vă șterge numele. Science-fiction s-a ocupat de acest lucru de mai multe ori, cum ar fi RoboCop, Judge Dredd și Minority Report. ⁃ TN Editor

S-ar putea să credeți că un computer ar fi un judecător imparțial și corect, dar un nou studiu arată că ar fi mai bine să vă lăsați soarta în mâinile oamenilor. Cercetătorii de la MIT au descoperit că inteligența artificială (AI) tinde să emită judecăți mai stricte și mai dure decât oamenii atunci când vine vorba de persoanele care încalcă regulile. Mai simplu spus, AI nu este dispusă să-i lase pe oameni să dezvolte ușor atunci când încalcă legea!

Cercetătorii și-au exprimat îngrijorarea că AI ar putea impune pedepse prea severe, în funcție de informațiile cu care oamenii de știință o programează. Atunci când AI este programată strict pe baza unor reguli, lipsită de orice nuanță umană, tinde să răspundă aspru în comparație cu atunci când este programată pe baza răspunsurilor umane.

Acest studiu, realizat de o echipă de la Institutul de Tehnologie din Massachusetts, a examinat modul în care AI ar interpreta încălcările percepute ale unui anumit cod. Ei au descoperit că cele mai eficiente date pentru programarea AI sunt datele normative, în care oamenii au determinat dacă o anumită regulă a fost încălcată. Cu toate acestea, multe modele sunt programate eronat cu date descriptive, în care oamenii etichetează atributele faptice ale unei situații, iar AI determină dacă un cod a fost încălcat.

În cadrul studiului, echipa a adunat imagini cu câini care ar putea încălca o regulă de apartament care interzice rasele agresive din clădire. Grupurile au fost apoi rugate să ofere răspunsuri normative și descriptive.

Echipa descriptivă nu a fost informată despre politica generală privind câinii și a fost rugată să identifice dacă trei elemente de fapt, cum ar fi agresivitatea câinelui, au fost prezente în imagine sau text. Răspunsurile lor au ajutat la formarea judecăților. Dacă un utilizator a spus că fotografia descrie un câine agresiv, politica a fost considerată încălcată. Pe de altă parte, grupul normativ a fost informat despre regulile privind câinii agresivi și a fost rugat să stabilească dacă fiecare imagine a încălcat regula și, dacă da, de ce.

Participanții au avut 20% mai multe șanse de a identifica o încălcare a codului folosind metoda descriptivă, comparativ cu cea normativă. Dacă datele descriptive despre comportamentul câinilor ar fi fost folosite pentru a programa un model AI, ar fi mai probabil să se emită sancțiuni severe.

Creșterea acestora inexactități la scenariile din lumea reală ar putea avea implicații substanțiale. De exemplu, dacă se folosește un model descriptiv pentru a prezice dacă o persoană poate comite aceeași infracțiune de mai multe ori, poate impune hotărâri mai dure decât un om și poate duce la sume mai mari ale cauțiunii sau pedepse penale mai lungi. În consecință, experții au pledat pentru o transparență sporită a datelor, susținând că înțelegerea modului în care sunt colectate datele poate ajuta la determinarea utilizărilor lor potențiale.

„Majoritatea cercetătorilor AI/învățare automată presupun că judecățile umane cu privire la date și etichete sunt părtinitoare. Dar rezultatele noastre indică o problemă mai îngrijorătoare: aceste modele nici măcar nu reproduc judecăți umane deja părtinitoare, deoarece datele pe care sunt instruiți sunt eronate”, spune Marzyeh Ghassemi, profesor asistent și șef al Grupului Healthy ML în Computer. Laboratorul de Știință și Inteligență Artificială (CSAIL), în a eliberare universitară.

„Soluția este să recunoaștem asta dacă vrem să ne reproducem judecata umana, ar trebui să folosim numai datele colectate în acest context. Altfel, vom ajunge cu sisteme care impun moderații extrem de dure, mult mai stricte decât ar impune oamenii. Oamenii ar vedea nuanțe sau ar face distincții, în timp ce aceste modele nu,” explică Ghassemi în continuare.

În studiu, publicat în Avansuri de știință, echipa a testat trei seturi de date suplimentare. Rezultatele au variat, variind de la o probabilitate crescută cu 20% de a identifica o încălcare a regulilor folosind răspunsuri descriptive pentru o încălcare a codului vestimentar, până la o creștere cu XNUMX% pentru imaginile agresive cu câini.

„Poate că modul în care oamenii gândesc despre încălcările regulilor diferă de modul în care gândesc despre datele descriptive. În general, deciziile normative tind să fie mai blânde”, spune autorul principal Aparna Balagopalan. „Datele chiar contează. Este esențial să se alinieze contextul de instruire cu contextul de implementare atunci când modelele de antrenament pentru a detecta încălcările regulilor.”

Planul viitor al echipei este să investigheze impactul participării profesioniștilor, cum ar fi avocații și medicii, la introducerea datelor.

Citește povestea completă aici ...

Despre editor

Patrick Wood
Patrick Wood este un lider important și critic în dezvoltarea durabilă, economia ecologică, agenda 21, agenda 2030 și tehnocrația istorică. Este autorul revistei Technocracy Rising: The Trojan Horse of Global Transformation (2015) și co-autor al Trilaterals Over Washington, Volumes I and II (1978-1980) cu regretatul Antony C. Sutton.
Mă abonez
Anunță-mă
oaspete

4 Comentarii
Cele mai vechi
Cele mai noi Cele mai votate
Feedback-uri în linie
Vezi toate comentariile

[…] Citește mai mult: Încalcă regulile? AI nu vă va arăta nicio milă […]

[…] Citește mai mult: Încalcă regulile? AI nu vă va arăta nicio milă […]

[…] Încalcă regulile? AI nu vă va arăta nicio milă […]

[…] Încalcă regulile? AI nu vă va arăta nicio milă […]