O nouă generație de arme autonome sau „roboți ucigași” ar putea să pornească accidental război sau să provoace atrocități în masă, fostul top Google inginerul software a avertizat.
Laura Nolan, care a demisionat de la Google anul trecut în semn de protest pentru că a fost trimisă să lucreze la un proiect de îmbunătățire dramatică Armata americană tehnologia drone, a cerut interzicerea tuturor mașinilor de ucidere AI care nu sunt operate de oameni.
Nolan a spus că roboții ucigași care nu sunt ghidați de telecomanda umană ar trebui scoși în afara legii prin același tip de tratat internațional care interzice armele chimice.
Spre deosebire de drone, care sunt controlate de echipe militare aflate deseori la mii de kilometri distanță de locul în care este dislocată arma zburătoare, Nolan a spus că roboții ucigași au potențialul de a face „lucruri calamite pentru care nu au fost inițial programate”.
Nu există nici o sugestie că Google este implicat în dezvoltarea sistemelor de arme autonome. Luna trecută, un grup de experți guvernamentali ai ONU a dezbătut arme autonome și a găsit Google că renunță la utilizarea AI în sistemele de arme și se angajează în cele mai bune practici.
Nolan, care s-a alăturat echipei Campanie pentru a opri roboții ucigași și a informat pe diplomații ONU de la New York și Geneva despre pericolele pe care le reprezintă armele autonome, a declarat: „Probabilitatea unui dezastru este proporțională cu cât de multe dintre aceste mașini vor fi într-o anumită zonă simultan. Ceea ce privești sunt posibile atrocități și ucideri ilegale chiar și în conformitate cu legile războiului, mai ales dacă sute sau mii de aceste mașini sunt implementate.
„Ar putea exista accidente la scară largă, deoarece aceste lucruri vor începe să se comporte în moduri neașteptate. Acesta este motivul pentru care orice sisteme avansate de arme ar trebui să fie supuse unui control uman semnificativ, altfel trebuie interzise deoarece sunt mult prea imprevizibile și periculoase. "
Google a recrutat Nolan, absolvent de informatică de la Trinity College Dublin, pentru a lucra la Project Maven în 2017 după ce a fost angajată de gigantul tehnic timp de patru ani, devenind unul dintre cei mai buni ingineri de software din Irlanda.
Ea a spus că a devenit „din ce în ce mai preocupată din punct de vedere etic” pentru rolul său în programul Maven, care a fost conceput pentru a ajuta Departamentul Apărării al SUA să accelereze drastic tehnologia de recunoaștere a videoclipurilor drone.
În loc să folosească un număr mare de operatori militari pentru a rula cu orele și orele de filmări video ale unor potențiale ținte inamice, Nolan și alții au fost rugați să construiască un sistem în care mașinile AI să poată diferenția oamenii și obiectele într-un ritm infinit mai rapid.
Google a permis contractului Project Maven să cadă în martie anul acesta după mai mult de 3,000 dintre angajații săi a semnat o petiție pentru a protesta împotriva implicării companiei.
„În calitate de inginer de fiabilitate a site-ului, expertiza mea la Google a fost să mă asigur că sistemele și infrastructurile noastre sunt menținute în funcțiune, iar acest lucru trebuia să-l ajut pe Maven. Deși nu am fost implicat direct în accelerarea recunoașterii înregistrărilor video, mi-am dat seama că încă fac parte din lanțul de ucidere; că, în cele din urmă, acest lucru ar duce la ca mai mulți oameni să fie vizați și uciși de către armata americană în locuri precum Afganistan. "
Deși a demisionat pentru Project Maven, Nolan a prezis că armele autonome dezvoltate prezintă un risc mult mai mare pentru rasa umană decât drone controlate de la distanță.
Ea a subliniat cum forțele externe care variază de la schimbarea sistemelor meteorologice până la mașinile care nu sunt capabile să lucreze comportament uman complex ar putea arunca roboți ucigași în afara cursului, cu consecințe eventual fatale.
„Ați putea avea un scenariu în care armele autonome care au fost trimise pentru a face o muncă se confruntă cu semnale radar neașteptate într-o zonă pe care o caută; S-ar putea să existe vremuri care nu au fost luate în considerare în software-ul său sau pot întâlni un grup de bărbați înarmați care par a fi dușmani insurgenți, dar, de fapt, ies cu armele care caută mâncare. Aparatul nu are discernământ sau bun simț pe care îl are atingerea umană.
„Celălalt lucru înfricoșător în legătură cu aceste sisteme de război autonome este faptul că le poți testa cu adevărat doar prin implementarea lor într-o zonă de luptă reală. Poate asta se întâmplă cu rușii în prezent în Siria, cine știe? Ceea ce știm este că, la ONU, Rusia s-a opus oricărui tratat, cu atât mai mult cu cât interzicerea acestor arme.
„Dacă testați o mașină care ia propriile decizii despre lumea din jurul ei, atunci trebuie să fie în timp real. În plus, cum să antrenați un sistem care rulează exclusiv pe software cum să detecteze un comportament uman subtil sau să discerneți diferența dintre vânători și insurgenți? Cum diferențiază mașina care ucide acolo singură, între combatantul de 18 de ani și cel de 18 care vânează iepuri? ”
Acest lucru îmi amintește de acea scenă din Jocurile de război - cam demodată pentru a viziona acum - dar foarte relevantă. https://www.youtube.com/watch?v=NHWjlCaIrQo