Cursa armelor de inteligență artificială este inevitabilă, dar poate fi controlată?

Vă rugăm să împărtășiți această poveste!

Forumul Economic Mondial înțelege că AI a declanșat o cursă internațională a înarmărilor, dar rezultatul este încă neclar. Dintr-o minte tehnocrată, AI este soluția la toate problemele sociale și personale ale omenirii.  Editor TN

Mașinile se ridică, subjugând umanitatea. Este un trope de science fiction care este aproape la fel de vechi ca mașinile în sine. Scenariile zilnice în jurul acestei teme sunt atât de extravagante Matrix, în care inteligența artificială creată de oameni conectează oamenii într-o realitate simulată pentru a recolta energie din corpurile lor - este dificil să le vizualizați ca amenințări grave.

Între timp, sistemele inteligente artificial continuă să se dezvolte în ritm. Mașinile cu autovehicule încep să ne împărtășească drumurile; dispozitivele de dimensiuni de buzunar răspund la întrebările noastre și ne gestionăm programările în timp real; algoritmii ne bat la Go; roboții devin mai buni când se ridică când cad peste cap. Este evident modul în care dezvoltarea acestor tehnologii va aduce beneficii umanității. Dar, atunci, nu toate poveștile sci-fi distopice încep așa?

Orice discuție despre potențialul distopic al AI riscă să graviteze către una dintre cele două extreme. Unul este excesiv de credul înfricoșător. Desigur, Siri nu este pe punctul de a transmogrifica în HAL ucigător 2001: A Space Odyssey. Dar cealaltă extremă este la fel de periculoasă - constrângerea că nu trebuie să ne gândim la aceste probleme, deoarece AI-ul care amenință umanitatea este la mai multe decenii.

Este adevărat că „superinteligența” artificială iubită de știință-ficțiune poate avea multe decenii în viitor, dacă este posibil deloc. Cu toate acestea, a sondaj recent efectuat de cercetătorii lideri ai AI de către TechEmergence a găsit o mare varietate de îngrijorări cu privire la pericolele pentru securitate ale AI într-un interval de timp mult mai realist, 20 - inclusiv anularea sistemului financiar, întrucât algoritmii interacționează în mod neașteptat și potențialul pentru AI de a ajuta actorii nocivi să optimizeze armele biotehnologice.

Aceste exemple arată cum, alături de progresul tehnologic pe multe fronturi, a patra revoluție industrială promite o democratizare rapidă și masivă a capacității de a face ravagii la scară foarte mare. În partea întunecată a „web-ului profund”, unde informațiile sunt ascunse motoarelor de căutare, există deja instrumente distructive pentru o gamă de tehnologii emergente de vânzare, de la arme tipărite 3D până la materiale și echipamente fixabile pentru inginerie genetică în laboratoarele de acasă. În fiecare caz, AI agravează potențialul de daune.

Luați în considerare o altă posibilitate menționată în sondajul TechEmergence. Dacă combinăm o armă, un drone quadrocopter, o cameră de înaltă rezoluție și un algoritm de recunoaștere facială care nu ar trebui să fie mult mai avansat decât curent cel mai bine din clasă, în teorie am putea face o mașină pe care să o putem programa pentru a zbura peste mulțimi, căutând fețe particulare și asasinând ținte la vedere.

Un astfel de dispozitiv nu ar necesita nicio superinteligență. Este posibil să se folosească AI actuală, „îngustă”, care nu poate face încă genul de salturi creative de înțelegere pe domenii distincte pe care oamenii le pot face. Când „inteligența generală artificială” sau AGI este dezvoltată - după cum pare probabil, mai devreme sau mai târziu - aceasta va crește semnificativ atât beneficiile potențiale ale AI, cât și, în cuvinte a lui Jeff Goddell, riscurile sale de securitate, „forțând un nou tip de contabilitate cu geniul tehnologic”.

Dar nu s-a gândit suficient despre potențialul armabil al AI. La fel de Wendell Wallach o spune: „Navigarea în viitorul posibilităților tehnologice este o aventura periculoasă”, observă el. „Începe prin a învăța să pui întrebări corecte - întrebări care dezvăluie capcanele inacțiunii și, mai important, pasajele disponibile pentru a planifica un curs într-un port sigur.”

Provocări de neproliferare

Savanți proeminenți, inclusiv Stuart Russell au emis un apel la acțiune pentru a evita „capcanele potențiale” în dezvoltarea AI care a fost sprijinit de către tehnologi de frunte, printre care Elon Musk, Demis Hassabis, Steve Wozniak și Bill Gates. O capcană cu profil înalt ar putea fi „sisteme letale de arme autonome” (LAWS) - sau, mai coloidal, „roboți ucigași”. Progresele tehnologice în robotică și tranformarea digitală a securității au schimbat deja paradigma fundamentală a războiului. Conform pentru Christopher Coker „Tehnologia 21st din secolul ne schimbă înțelegerea despre război în moduri profund tulburătoare.” LEGE complet dezvoltate vor transforma probabil războiul modern la fel de dramatic ca praful de pușcă și armele nucleare.

Consiliul ONU pentru Drepturile Omului are a solicitat un moratoriu cu privire la dezvoltarea în continuare a LEGII, în timp ce alte grupuri de activiști și campanii au pledat pentru o interdicție deplină, realizând o analogie cu armele chimice și biologice, pe care comunitatea internațională le consideră dincolo de paliditate. Pentru al treilea an consecutiv, statele membre ale Organizației Națiunilor Unite s-au întâlnit luna trecută pentru a dezbate apelul de interzicere și cum să se asigure că orice dezvoltare ulterioară a LAWS rămâne în cadrul dreptului internațional umanitar. Cu toate acestea, atunci când tehnologia de armare la sol nu mai este limitată la câțiva militari mari, eforturile de neproliferare devin mult mai dificile.

Dezbaterea este complicată de faptul că definițiile rămân înmulțite în confuzie. Platformele, cum ar fi drone, sunt de obicei confundate cu armele care pot fi încărcate pe platforme. Ideea sistemelor cărora li se solicită să execute sarcini strict definite, cum ar fi identificarea și eliminarea vehiculelor blindate care se deplasează într-o zonă geografică specifică, nu este întotdeauna distinsă de ideea sistemelor cărora li se oferă un domeniu discreționar pentru a interpreta misiuni mai generale, cum ar fi „câștiga razboiul" .

Citește povestea completă aici ...

Mă abonez
Anunță-mă
oaspete

0 Comentarii
Feedback-uri în linie
Vezi toate comentariile