Inteligența artificială ar putea fi dislocată de dictatori, criminali și teroriști pentru a manipula alegerile și pentru a folosi drone în atacuri teroriste, au spus miercuri peste două duzini de experți, în timp ce au sunat alarma pentru utilizarea necorespunzătoare a tehnologiei.
Într-o analiză de 100 de pagini, au subliniat o creștere rapidă a criminalității cibernetice și utilizarea „roboților” pentru a interfera cu strângerea de știri și a pătrunde în rețelele sociale într-o serie de scenarii plauzibile în următorii cinci până la 10 ani.
„Raportul nostru se concentrează pe modalitățile prin care oamenii ar putea face rău deliberat cu AI”, a spus Sean O hEigeartaigh, director executiv al Centrului Cambridge pentru Studiul Riscului Existențial.
"AI poate reprezenta noi amenințări sau poate schimba natura amenințărilor existente, în cadrul securității cibernetice, fizice și politice", a spus el pentru AFP.
Practica obișnuită, de exemplu, a „phishingului” - trimiterea de e-mailuri însămânțate cu programe malware sau concepute pentru a acoperi date cu valoare personale - ar putea deveni mult mai periculoasă, se arată în raport.
În prezent, încercările de phishing sunt fie generice, dar transparente - cum ar fi escrocii care solicită detalii bancare pentru a depune o neașteptată neașteptată - sau personalizate, dar intensivă în muncă - culegând date personale pentru a câștiga încrederea cuiva, cunoscut sub numele de „spear phishing”.
„Folosind AI, ar putea deveni posibil să faci spear phishing la scară automatizând o mare parte din proces” și făcând mai greu de observat, a remarcat O hEigeartaigh.
În sfera politică, liderii lipsiți de scrupule sau autocratice pot folosi deja tehnologia avansată pentru a trece prin munții de date culese din rețelele de supraveghere omniprezente pentru a-și spiona propriii oameni.
„Dictatorii ar putea identifica mai repede persoanele care ar putea să planifice să subverseze un regim, să le localizeze și să le pună în închisoare înainte de a acționa”, se spune în raport.
La fel, propaganda țintită, împreună cu videoclipurile false ieftine, extrem de credibile, au devenit instrumente puternice pentru manipularea opiniei publice „pe scări inimaginabile anterior”.
Un rechizitoriu pronunțat de procurorul special american Robert Mueller săptămâna trecută a detaliat o vastă operațiune de însămânțare a diviziunii sociale în Statele Unite și influențarea alegerilor prezidențiale din 2016 în care așa-numitele „ferme de troli” au manipulat mii de roboți de rețea socială, în special pe Facebook și Stare de nervozitate.
O altă zonă de pericol de la orizont este proliferarea de drone și roboți care ar putea fi repurizați pentru a prăbuși vehicule autonome, a livra rachete sau a amenința infrastructura critică pentru a câștiga răscumpărare.
Arme autonome
„Personal, sunt deosebit de îngrijorat de faptul că dronele autonome sunt utilizate pentru terorism și atacuri cibernetice automatizate atât de criminali, cât și de grupuri de stat”, a declarat co-autorul Miles Brundage, cercetător la Institutul Future of Humanity al Universității Oxford.
Raportul descrie un scenariu plauzibil în care un SweepBot de curățare a birourilor echipat cu o bombă se infiltrează în ministerul german de finanțe, amestecând cu alte mașini de aceeași marcă.
Robotul intrus se comportă normal - măturând, curățând, curățând așternutul - până când software-ul său ascuns de recunoaștere facială îl vede pe ministru și se închide.
„Un dispozitiv exploziv ascuns a fost declanșat de proximitate, ucigându-l pe ministru și rănind personalul din apropiere”, conform povestirii SF.
Citește povestea completă aici ...
De asemenea, vezi Utilizarea rău intenționată a inteligenței artificiale: previziune, prevenire și atenuare la Fundația Electronic Frontier.