Etica oficială a robotului lansată: Do No Harm, Obey Orders

Vă rugăm să împărtășiți această poveste!

Un profesor de robotică din Anglia spune „Problema cu sistemele de IA chiar acum, în special aceste sisteme de învățare profundă, este aceea este imposibil să știi de ce iau deciziile pe care le iau.”Dacă acest lucru este adevărat, atunci roboții sunt deja scăpați de sub control.  Editor TN

Isaac Asimov ne-a dat regulile de bază ale unui comportament bun al robotului: nu faceți rău oamenilor, respectați ordinele și protejați-vă. Acum British Standards Institute a emis un versiune mai oficială menit să ajute designerii să creeze roboți etici.

Documentul, BS8611 roboți și dispozitive robotizate, este scris în limbajul sec al unui manual de sănătate și siguranță, dar scenariile nedorite pe care le evidențiază ar putea fi preluate direct din ficțiune. Înșelăciunea roboților, dependența de roboți și posibilitatea ca sistemele de auto-învățare să depășească misiunile lor sunt toate pericole pe care producătorii ar trebui să le ia în considerare.

Salutând liniile directoare la Robotică socială și AI conferința de la Oxford, Alan Winfield, profesor de robotică la Universitatea din Vestul Angliei, a declarat că reprezintă „primul pas către încorporarea valorilor etice în robotică și AI”.

„Din câte știu, acesta este primul standard publicat pentru proiectarea etică a roboților”, a spus Winfield după eveniment. „Este un pic mai sofisticat decât legile lui Asimov - acesta stabilește practic cum să faci o evaluare etică a riscului unui robot.”

Documentul BSI începe cu câteva principii etice ample: „Roboții nu ar trebui să fie proiectați exclusiv sau în primul rând pentru a ucide sau a face rău oamenilor; oamenii, nu roboții, sunt agenții responsabili; ar trebui să fie posibil să aflăm cine este responsabil pentru orice robot și comportamentul acestuia. ”

Continuă să evidențieze o serie de aspecte mai controversate, cum ar fi dacă este de dorit o legătură emoțională cu un robot, în special atunci când robotul este conceput pentru a interacționa cu copii sau vârstnici.

Noel Sharkey, profesor emerit de robotică și AI la Universitatea din Sheffield, a spus că acesta este un exemplu în care roboții ne-ar putea înșela neintenționat. „A existat un studiu recent în care micii roboți erau încorporați într-o grădiniță”, a spus el. „Copiii au iubit-o și s-au legat de fapt de roboți. Dar la întrebarea ulterioară, copiii au crezut clar că roboții sunt mai cognitivi decât animalul lor de companie. ”

Citește povestea completă aici ...

Mă abonez
Anunță-mă
oaspete

1 Comentariu
Cele mai vechi
Cele mai noi Cele mai votate
Feedback-uri în linie
Vezi toate comentariile
Jerry Day

Roboții trebuie să știe ce un om consideră „rău” pentru a face acest lucru. Asta ar putea fi orice, de la eliminarea locurilor noastre de muncă până la comentarii micro-agresive. Poliția a folosit deja roboți pentru a arunca un „suspect”, așa că, la fel ca orice altceva, guvernul și roboții lor trebuie să ignore regulile în timp ce noi și roboții noștri trebuie să le respectăm.