Ce se întâmplă dacă un robot decide că te urăște?
Aceasta ar putea părea o întrebare stupidă, însă, conform cercetărilor, dezvoltarea prejudecăților față de ceilalți nu necesită un nivel ridicat de capacitate cognitivă și ar putea fi ușor expusă de roboți și alte mașini inteligente artificial.
Studiul, realizat de experți în informatică și psihologie de la Universitatea Cardiff și MIT, a dezvăluit că grupuri de mașini autonome ar putea demonstra prejudecăți prin simpla identificare, copiere și învățarea comportamentului unul de la celălalt. Rezultatele au fost publicate în jurnal Natură.
Roboții sunt capabili să formeze prejudecăți la fel ca oamenii.
In un comunicat de presă, echipa de cercetare a explicat că, deși poate părea că cogniția umană ar fi necesară pentru a forma opinii și pentru a stereotipiza pe alții, se pare că nu este cazul. Prejudecata nu pare a fi un fenomen specific uman.
Unele tipuri de algoritmi informatici au prezentat deja prejudecăți precum rasismul și sexismul pe care mașinile învățând din înregistrările publice și alte date generate de oameni. În două cazuri anterioare de AI care prezintă o asemenea prejudecată, chat-urile Microsoft Tay și Zo au fost închise după ce oamenii i-au învățat să spună observații rasiste și sexiste pe social media.
Aceasta înseamnă că roboții ar putea fi la fel de urâți ca ființele umane. Și din moment ce sunt de mii de ori mai deștepți decât noi, vă puteți imagina viitorul dacă ar dezvolta o părtinire împotriva umanității?
Nu este necesară o intrare umană.
Îndrumarea de la oameni nu este necesară pentru ca roboții să învețe să nu îi placă pe anumite persoane.
Cu toate acestea, acest studiu a arătat că AI nu are nevoie de provocare și inspirație din troll-uri pentru a-l face să prezinte prejudecăți: este capabil să le formeze pe toate.
Pentru a efectua cercetarea, echipa a creat simulări computerizate despre modul în care indivizii prejudiciați pot forma un grup și interacționează între ei. Au creat un joc de „a da și a lua”, în care fiecare bot AI a luat o decizie dacă donează sau nu unei alte persoane din cadrul propriului grup de lucru sau al unui alt grup. Deciziile au fost luate pe baza reputației fiecărui individ și a strategiei de donare a acestora, inclusiv a nivelului lor de prejudecăți față de indivizii din grupuri exterioare.
Pe măsură ce jocul a progresat și un supercomputer a acumulat mii de simulări, fiecare individ a început să învețe noi strategii copiind altele, fie în cadrul propriului grup, fie al întregii populații.
Co-autor al studiului Profesorul Roger Whitaker, de la Institutul de Cercetare a Criminalității și Securității de la Universitatea Cardiff și a Școlii de Informatică și Informatică, a spus a constatărilor:
Prin rularea acestor simulări de mii și mii de ori, începem să înțelegem cum evoluează prejudecățile și condițiile care îl promovează sau împiedică.
Descoperirile implică persoanele care își actualizează nivelurile de prejudecăți prin copierea preferențială a celor care obțin un profit mai mare pe termen scurt, adică aceste decizii nu necesită în mod necesar abilități cognitive avansate.
Este posibil ca mașinile autonome cu capacitatea de a se identifica cu discriminarea și de a le copia pe altele ar putea fi în viitor susceptibile de fenomene prejudiciabile pe care le vedem în populația umană.
Multe dintre evoluțiile AI pe care le vedem implică autonomie și autocontrol, ceea ce înseamnă că comportamentul dispozitivelor este influențat și de alții din jurul lor. Vehiculele și Internetul lucrurilor sunt două exemple recente. Studiul nostru oferă o perspectivă teoretică în care agenții simulați apelează periodic la alții pentru un fel de resursă. (sursă)
Autonomie și autocontrol. Nu se întâmplă asta? franciza Terminator?
Musk a adăugat, „Cu inteligența artificială, chemăm demonul.”