Cercetătorii se confruntă cu grupuri LGBTQ în studiul AI

Vă rugăm să împărtășiți această poveste!

Cel mai violent protest împotriva identificării homosexualilor de către AI a venit de la comunitatea LGBTQ însăși, micșorându-l ca „știință junk” și fals. Presupun că unele dintre națiunile în care este încorporată legea Sharia ar dori să folosească această tehnologie.  Editor TN

Un studiu viral care a dezvăluit inteligența artificială ar putea ghici cu exactitate dacă o persoană este homosexuală sau dreaptă, bazată pe fața sa, primește reacții dure din partea grupurilor de drepturi LGBTQ.

Studiul, care a fost realizat de cercetători de la Universitatea Stanford, a raportat că AI distinge corect bărbații homosexuali de bărbații heteroși 81 la sută din timp și 74 la sută din timp pentru femei.

Avocații au numit cercetarea „știința junk”, susținând că tehnologia nu numai că ar putea scoate oamenii în evidență, ci și-ar putea pune viața în pericol - mai ales în regimurile brutale care consideră homosexualitatea o infracțiune care se pedepsește.

"Într-o perioadă în care grupurile minoritare sunt vizate, aceste descoperiri imprudente ar putea servi drept armă pentru a dăuna atât heterosexualilor care sunt în mod inexact depășiți, cât și persoanelor gay și lesbiene care se află în situații în care ieșirea este periculoasă", Jim Halloran, șeful GLAAD Ofițer digital, a scris într-o declarație comună a GLAAD și a Campaniei pentru Drepturile Omului.

Cu toate acestea, autorul studiului nu este de acord cu critica, afirmând că acest tip de tehnologie există deja și scopul cercetării sale a fost de a expune defectele de securitate și de a dezvolta protecții, astfel încât cineva să nu o poată folosi pentru rea voință.

„Una dintre obligațiile mele ca om de știință este că, dacă știu ceva care poate proteja oamenii de prada unor astfel de riscuri, ar trebui să îl public”, a spus Michal Kosinksi, coautor al studiului, a spus gardianului. El a adăugat că discreditarea cercetărilor sale nu ar ajuta la protejarea persoanelor LGBTQ de implicațiile care pot pune viața în pericol acest tip de tehnologie.

Avocații au solicitat, de asemenea, studiul pentru că nu se uită la persoanele bisexuale și transgender sau la persoanele de culoare. Cercetătorii au adunat 130,741 de imagini cu bărbați și femei din profiluri publice pe un site de întâlniri pentru ca AI să le analizeze, toate fiind caucaziene. În timp ce Kosinksi și co-autorul său au recunoscut că lipsa diversității în studiu a fost o problemă, ei nu au spus la ce site de întâlniri s-au uitat și au susținut că nu pot găsi destui homosexuali ne-albi.

Citește povestea completă aici ...

Mă abonez
Anunță-mă
oaspete

0 Comentarii
Feedback-uri în linie
Vezi toate comentariile