Isaac Asimov ne-a dat regulile de bază ale unui comportament bun al robotului: nu faceți rău oamenilor, respectați ordinele și protejați-vă. Acum British Standards Institute a emis un versiune mai oficială menit să ajute designerii să creeze roboți etici.
Documentul, BS8611 roboți și dispozitive robotizate, este scris în limbajul sec al unui manual de sănătate și siguranță, dar scenariile nedorite pe care le evidențiază ar putea fi preluate direct din ficțiune. Înșelăciunea roboților, dependența de roboți și posibilitatea ca sistemele de auto-învățare să depășească misiunile lor sunt toate pericole pe care producătorii ar trebui să le ia în considerare.
Salutând liniile directoare la Robotică socială și AI conferința de la Oxford, Alan Winfield, profesor de robotică la Universitatea din Vestul Angliei, a declarat că reprezintă „primul pas către încorporarea valorilor etice în robotică și AI”.
„Din câte știu, acesta este primul standard publicat pentru proiectarea etică a roboților”, a spus Winfield după eveniment. „Este un pic mai sofisticat decât legile lui Asimov - acesta stabilește practic cum să faci o evaluare etică a riscului unui robot.”
Documentul BSI începe cu câteva principii etice ample: „Roboții nu ar trebui să fie proiectați exclusiv sau în primul rând pentru a ucide sau a face rău oamenilor; oamenii, nu roboții, sunt agenții responsabili; ar trebui să fie posibil să aflăm cine este responsabil pentru orice robot și comportamentul acestuia. ”
Continuă să evidențieze o serie de aspecte mai controversate, cum ar fi dacă este de dorit o legătură emoțională cu un robot, în special atunci când robotul este conceput pentru a interacționa cu copii sau vârstnici.
Noel Sharkey, profesor emerit de robotică și AI la Universitatea din Sheffield, a spus că acesta este un exemplu în care roboții ne-ar putea înșela neintenționat. „A existat un studiu recent în care micii roboți erau încorporați într-o grădiniță”, a spus el. „Copiii au iubit-o și s-au legat de fapt de roboți. Dar la întrebarea ulterioară, copiii au crezut clar că roboții sunt mai cognitivi decât animalul lor de companie. ”
Roboții trebuie să știe ce un om consideră „rău” pentru a face acest lucru. Asta ar putea fi orice, de la eliminarea locurilor noastre de muncă până la comentarii micro-agresive. Poliția a folosit deja roboți pentru a arunca un „suspect”, așa că, la fel ca orice altceva, guvernul și roboții lor trebuie să ignore regulile în timp ce noi și roboții noștri trebuie să le respectăm.