În viitor, viitorul dvs. ar putea depinde de o serie de zerouri și unele calculate cu atenție.
Pe măsură ce tehnologia se îmbunătățește, oamenii devin mai puțin implicați în deciziile care ne afectează viața - și nu este tocmai un lucru bun.
Pe măsură ce inteligența artificială câștigă teren, profesorii universitari de la Universitatea Massachusetts-Amherst au dezvoltat un program pentru a testa software-ul pentru prejudecăți și discriminare.
Da, discriminare rasială. Dar mai mult decât atât. Deciziile din domeniul sănătății. Decizii de împrumut. Heck, chiar și modul în care Amazon decide tarifele de trimitere a pachetelor.
„Astăzi, software-ul determină cine primește un împrumut sau se angajează, calculează scoruri de evaluare a riscurilor care ajută la deciderea cine intră în închisoare și cine este eliberat și ajută la diagnosticarea și tratarea pacienților medicali” conform dezvoltatorilor programului.
Cu aceasta, este esențial „software-ul nu discriminează grupurile sau indivizii”, susțin cercetătorii, adăugând că domeniul lor de studiu este „subevaluat” și „au apărut nenumărate exemple de software neloial”.
Într-un erudit articol publicat pentru o viitoare inginerie software conferință, informaticienii Alexandra Meliou și Yuriy Brun, care au creat programul împreună cu doctorandul Sainyam Galhotra, detaliază „preocuparea crescândă” a discriminării software.
În lucrare, cei doi profesori prognozează că influența în evoluție și în creștere a software-ului va avea asupra vieții umane în viitor și susțin că software-ul joacă în prezent un rol excesiv în societate.
„În viitor, importanța asigurării corectitudinii software-ului va crește doar”, se arată în ziar.
Savanții au folosit exemple care ilustrează părtinirea împotriva celor bogați și a celor bătători.
Unul dintre exemplele de discriminare software furnizate de Brun și Meliou este programarea utilizată de Amazon.com pentru a determina ce zone geografice ar primi livrare gratuită în aceeași zi. După lansarea programului anul trecut, a fost pretins că cartierele minoritare au primit avantajul la o rată mult mai mică decât cartierele predominant albe.
Autorii subliniază, de asemenea, modul în care software-ul utilizat în sectorul public poate proiecta părtinire, punând în evidență tehnologia utilizată într-o serie de state care calculează scorurile în funcție de probabilitatea ca un criminal să comită infracțiuni suplimentare. Potrivit cercetătorilor, s-a constatat că software-ul „îi marchează în mod fals pe inculpații negri drept viitori infractori, etichetându-i în mod greșit astfel la aproape dublu față de rata inculpaților albi”.
În sistemul nostru economic de capitalism bazat pe piețe „libere”, partea piețelor este deja artificială în proporție de 90% (HFT)