Este posibil să fi sosit deja scenariul de coșmar pentru securitatea computerelor - programe de inteligență artificială care pot învăța cum să se sustragă chiar și cele mai bune apărări.
Acest avertisment din partea cercetătorilor de securitate este condus acasă de o echipă de la IBM Corp. care a folosit tehnica inteligenței artificiale cunoscută sub numele de mașină de învățare pentru a construi programe de hacking care ar putea aluneca măsuri defensive de prim nivel. Grupul va dezvălui miercuri detalii despre experimentul său în cadrul conferinței de securitate Black Hat de la Las Vegas.
Apărările de ultimă generație se bazează, în general, pe examinarea ce face software-ul de atac, decât pe tehnica mai obișnuită de analiză a codului software pentru semne de pericol. Dar noul gen de programe bazate pe AI poate fi instruit să rămână inactiv până când vor atinge o țintă foarte specifică, făcându-le excepțional de greu de oprit.
Nimeni nu s-a lăudat încă să prindă vreun software rău intenționat care s-a bazat în mod clar pe învățarea mașinii sau alte variante de inteligență artificială, dar asta poate fi doar pentru că programele de atac sunt prea bune pentru a fi surprinse.
Cercetătorii spun că, în cel mai bun caz, este doar o chestiune de timp. Blocurile gratuite de inteligență artificială pentru programele de instruire sunt disponibile cu ușurință de la Google și altele ale Alphabet Inc, iar ideile funcționează prea bine în practică.
„Cred cu siguranță că mergem acolo”, a declarat Jon DiMaggio, analist senior de amenințări la firma de securitate cibernetică Symantec Corp. „Va face mult mai greu de detectat”.
Cei mai avansați hackeri din statele naționale au arătat deja că pot construi programe de atac care se activează doar atunci când au atins o țintă. Cel mai cunoscut exemplu este Stuxnet, care a fost implementat de agențiile de informații americane și israeliene împotriva unei instalații de îmbogățire a uraniului din Iran.
Efortul IBM, numit DeepLocker, a arătat că un nivel similar de precizie poate fi disponibil pentru cei cu resurse mult mai puține decât un guvern național.
În cadrul unei demonstrații care utilizează fotografii disponibile publicului cu un eșantion țintă, echipa a folosit o versiune hacked a software-ului de videoconferință care a pornit în acțiune doar atunci când a detectat fața unei ținte.
„Avem o mulțime de motive să credem că acesta este următorul lucru important”, a declarat cercetătorul principal al IBM, Marc Ph. Stoecklin. „Este posibil să se fi întâmplat deja și o vom vedea în doi sau trei ani de acum înainte”.