Facebook creează o echipă specială de etică pentru a examina prejudecățile din software-ul AI

Vă rugăm să împărtășiți această poveste!
Programele AI moștenesc prejudecățile creatorilor lor. Astfel, programele de cenzură pe care Facebook le-a creat deja conțin semințele gândirii tehnice și ale eticii. Sunt aceiași oameni capabili să-și examineze propriile creații? ⁃ TN Editor

Mai mult decât oricând, Facebook este sub presiune pentru a demonstra că algoritmii săi sunt dislocați în mod responsabil.

Miercuri, în cadrul conferinței sale de dezvoltatori F8, compania a dezvăluit că a format o echipă specială și a dezvoltat software discret pentru a se asigura că sistemele sale de inteligență artificială iau decizii cât mai etic, fără prejudecăți.

Facebook, cum ar fi alte companii mari de tehnologie cu produse folosite de grupuri mari și diverse de oameni, este încorporarea mai profundă AI în serviciile sale. Facebook a declarat săptămâna aceasta că va începe să ofere traducerea mesajelor pe care oamenii le primesc prin intermediul aplicației Messenger. Sistemele de traducere trebuie mai întâi instruite cu privire la date, iar impulsul etic ar putea ajuta la asigurarea faptului că sistemele Facebook sunt învățate să ofere traduceri corecte.

 „Ne vom uita înapoi și vom spune:„ Este fantastic că am reușit să fim proactivi în fața acestor întrebări și să înțelegem înainte de a lansa lucrurile ce este corectitatea pentru orice produs dat pentru un grup demografic ”, Isabel Kloumann , un cercetător de la Facebook, a declarat pentru CNBC. Ea a refuzat să spună câți oameni sunt în echipă.

Facebook a declarat că aceste eforturi nu sunt rezultatul unor modificări care au avut loc în cele șapte săptămâni de când s-a dezvăluit că firma de analiză a datelor Cambridge Analytica a utilizat abuziv datele personale ale utilizatorilor rețelei sociale înainte de alegerile din 2016. Dar este clar că sentimentul public față de Facebook a devenit dramatic negativ până târziu, atât de mult încât CEO Mark Zuckerberg a trebuit să stea prin ore întregi de interogare congresistă luna trecută.

Fiecare anunț este acum la un microscop.

Facebook a încetat să formeze un consiliu axat pe etica AI, cum ar fi Axon (fostul Taser) a făcut-o săptămâna trecută. Dar mișcările se aliniază cu o recunoaștere mai largă a industriei, pe care cercetătorii AI trebuie să lucreze pentru ca sistemele lor să fie incluse. Grupul DeepMind AI al Alphabet a format un echipa de etică și societate anul trecut. Inainte de asta, Microsoft organizația de cercetare a înființat un grup de etică privind responsabilitatea și responsabilitatea echității.

Domeniul AI a avut partea sa de jenă, ca atunci când Google Photos a fost reperat în urmă cu trei ani clasificând oamenii negri drept gorile.

Anul trecut, echipa Kloumann a dezvoltat un software numit Fairness Flow, care de atunci a fost integrat în aplicația larg utilizată de Facebook Fluxul FBLearner software intern pentru formarea și rularea mai ușoară a sistemelor AI. Software-ul analizează datele, luând în considerare formatul lor, apoi produce un raport care îl rezumă.

Kloumann a spus că lucrează la subiectul corectitudinii de când s-a alăturat Facebook-ului în 2016, tocmai când oamenii din industria tehnologiei au început să vorbească despre asta mai deschis și pe măsură ce preocupările societale au apărut cu privire la puterea AI.

Citește povestea completă aici ...

 

Mă abonez
Anunță-mă
oaspete

0 Comentarii
Feedback-uri în linie
Vezi toate comentariile