Profesorii avertizează asupra pericolelor asupra tehnicii luând decizii de la oameni

Vă rugăm să împărtășiți această poveste!

Nu este nevoie de un profesor pentru a înțelege intuitiv că programele create de om nu pot depăși prejudecățile creatorilor lor. Tehnocrații ratează acest punct, considerând că orice decizie automată este mai eficientă și mai consecventă decât o judecată umană.  Editor TN

În viitor, viitorul dvs. ar putea depinde de o serie de zerouri și unele calculate cu atenție.

Pe măsură ce tehnologia se îmbunătățește, oamenii devin mai puțin implicați în deciziile care ne afectează viața - și nu este tocmai un lucru bun.

Pe măsură ce inteligența artificială câștigă teren, profesorii universitari de la Universitatea Massachusetts-Amherst au dezvoltat un program pentru a testa software-ul pentru prejudecăți și discriminare.

Da, discriminare rasială. Dar mai mult decât atât. Deciziile din domeniul sănătății. Decizii de împrumut. Heck, chiar și modul în care Amazon decide tarifele de trimitere a pachetelor.

„Astăzi, software-ul determină cine primește un împrumut sau se angajează, calculează scoruri de evaluare a riscurilor care ajută la deciderea cine intră în închisoare și cine este eliberat și ajută la diagnosticarea și tratarea pacienților medicali” conform dezvoltatorilor programului.

Cu aceasta, este esențial „software-ul nu discriminează grupurile sau indivizii”, susțin cercetătorii, adăugând că domeniul lor de studiu este „subevaluat” și „au apărut nenumărate exemple de software neloial”.

Într-un erudit articol publicat pentru o viitoare inginerie software conferință, informaticienii Alexandra Meliou și Yuriy Brun, care au creat programul împreună cu doctorandul Sainyam Galhotra, detaliază „preocuparea crescândă” a discriminării software.

În lucrare, cei doi profesori prognozează că influența în evoluție și în creștere a software-ului va avea asupra vieții umane în viitor și susțin că software-ul joacă în prezent un rol excesiv în societate.

„În viitor, importanța asigurării corectitudinii software-ului va crește doar”, se arată în ziar.

Savanții au folosit exemple care ilustrează părtinirea împotriva celor bogați și a celor bătători.

Unul dintre exemplele de discriminare software furnizate de Brun și Meliou este programarea utilizată de Amazon.com pentru a determina ce zone geografice ar primi livrare gratuită în aceeași zi. După lansarea programului anul trecut, a fost pretins că cartierele minoritare au primit avantajul la o rată mult mai mică decât cartierele predominant albe.

Autorii subliniază, de asemenea, modul în care software-ul utilizat în sectorul public poate proiecta părtinire, punând în evidență tehnologia utilizată într-o serie de state care calculează scorurile în funcție de probabilitatea ca un criminal să comită infracțiuni suplimentare. Potrivit cercetătorilor, s-a constatat că software-ul „îi marchează în mod fals pe inculpații negri drept viitori infractori, etichetându-i în mod greșit astfel la aproape dublu față de rata inculpaților albi”.

Citește povestea completă aici ...

Mă abonez
Anunță-mă
oaspete

1 Comentariu
Cele mai vechi
Cele mai noi Cele mai votate
Feedback-uri în linie
Vezi toate comentariile
M11S

În sistemul nostru economic de capitalism bazat pe piețe „libere”, partea piețelor este deja artificială în proporție de 90% (HFT)