Lumea trebuie să acționeze rapid pentru a evita un viitor în care roboți autonomi cu inteligență artificială parcurg câmpurile de luptă ucigând oameni, oameni de știință și experți în armă avertizați la o adunare de elită din Alpii Elvețieni.
Regulile trebuie să fie convenite pentru a împiedica dezvoltarea unor astfel de arme, au spus la o întâlnire 19-23 din ianuarie a miliardarilor, oamenilor de știință și a liderilor politici din stațiunea de schi acoperită cu zăpadă din Davos.
Angela Kane, Înaltul Reprezentant al ONU pentru Afaceri pentru Dezarmare de la 2012-2015, a declarat că lumea a fost încet să ia măsuri preventive pentru a proteja umanitatea împotriva tehnologiei letale.
„S-ar putea să fie prea târziu”, a spus ea într-o dezbatere în Davos.
„Există multe țări și mulți reprezentanți în comunitatea internațională care într-adevăr nu înțeleg ce este implicat. Această dezvoltare este ceva care este limitat la un anumit număr de țări avansate ”, a spus Kane.
Dezvoltarea armelor autonome ar reprezenta o nouă eră periculoasă în război, au spus oamenii de știință.
„Nu vorbim despre drone, unde un pilot uman controlează drona”, a spus Stuart Russell, profesor de informatică la Universitatea din California, Berkeley.
„Vorbim despre arme autonome, ceea ce înseamnă că nu este nimeni în spatele ei. AI: arme de inteligență artificială ”, a spus el într-un forum din Davos. „Foarte precis, arme care pot localiza și ataca ținte fără intervenția umană.”
Russell a spus că nu a prevăzut o zi în care roboții să lupte pentru războaie pentru oameni și la sfârșitul zilei o parte spune: „OK ai câștigat, ca să poți avea toate femeile noastre”.
Însă unii șefi de știință și tehnologie 1,000, inclusiv fizicianul britanic Stephen Hawking, au spus într-o scrisoare deschisă în iulie trecută că dezvoltarea armelor cu un grad de decizie autonomă ar putea fi posibilă în decurs de ani, nu decenii.
Aceștia au cerut interzicerea armelor autonome ofensive care să depășească controlul uman semnificativ, avertizând că lumea riscă să alunece într-o cursă de armament cu inteligență artificială și să alarmeze riscurile ca astfel de arme să cadă în mâinile unor extremiste violente.
Problema este culturală, nu tehnologică.
Dacă ucidem crima ca o soluție la provocările celor care gândesc diferit de modul în care facem, contează cum ne implicăm în ucidere?