Va fi folosită IA pentru a denatura rezultatele alegerilor din 2024?

Vă rugăm să împărtășiți această poveste!
Chatbot-urile, duplicarea vocii, falsurile profunde și algoritmii de căutare în mâinile actorilor progresiste și tehnocrați intenționează să înghețe toate celelalte voci în alegerile din 2024. Aceasta este o amenințare existențială la adresa integrității alegerilor din America, dar dialogul național nu are loc. Știrile despre amenințarea în sine sunt cenzurate.⁃ Editor TN

Inginerii informatici și politologii înclinați spre tehnologie au avertizat de ani de zile că instrumentele ieftine și puternice de inteligență artificială vor permite în curând oricui să creeze imagini, videoclipuri și sunet false care să fie suficient de realiste pentru a păcăli alegătorii și poate influența alegerile.

Imaginile sintetice care au apărut au fost adesea crudneconvingător și costisitor de produs, mai ales când alte tipuri de dezinformare erau atât de ieftine și ușor de răspândit pe rețelele sociale. Amenințarea reprezentată de AI și așa-numita deepfakes părea întotdeauna la un an sau doi distanță.

Nu mai.

Instrumentele AI generative sofisticate pot crea acum voci umane clonate și imagini hiperrealiste, videoclipuri și audio în câteva secunde, la costuri minime. Atunci când este legat de algoritmi puternici de socializare, acest conținut fals și creat digital se poate răspândi departe și rapid și poate viza un public foarte specific, ducând potențial trucurile murdare ale campaniei la un nou nivel.

Implicațiile pentru campaniile și alegerile din 2024 sunt pe cât de mari, pe atât de îngrijorătoare: IA generativă nu numai că poate produce rapid e-mailuri, texte sau videoclipuri vizate de campanie, ci poate fi folosită și pentru a induce în eroare alegătorii, uzurpa identitatea candidaților și subminează alegerile la o scară și o viteză nevăzută încă.

„Nu suntem pregătiți pentru asta”, a avertizat AJ Nash, vicepreședinte de informații la firma de securitate cibernetică ZeroFox. „Pentru mine, marele salt înainte sunt capabilitățile audio și video care au apărut. Când poți să faci asta la scară largă și să o distribui pe platformele sociale, ei bine, va avea un impact major.”

Experți în AI poate declanșa rapid o serie de scenarii alarmante în care inteligența artificială generativă este folosită pentru a crea medii sintetice în scopul derutării alegătorilor, defăimării unui candidat sau chiar incitării la violență.

Iată câteva: Mesaje automate de apeluri automate, în vocea unui candidat, care instruiesc alegătorii să voteze la data greșită; înregistrări audio ale unui candidat care se presupune că mărturisește o crimă sau își exprimă opinii rasiste; înregistrări video care arată pe cineva ținând un discurs sau interviu nu au dat niciodată. Imagini false concepute să semene cu știrile locale, susținând în mod fals că un candidat a renunțat la cursă.

„Dacă Elon Musk te sună personal și îți spune să votezi pentru un anumit candidat?” a declarat Oren Etzioni, CEO-ul fondator al Institutului Allen pentru IA, care a demisionat anul trecut pentru a începe organizația nonprofit AI2. „Mulți oameni ar asculta. Dar nu este el.”

Fostul președinte Donald Trump, care candidează în 2024, a distribuit conținut generat de inteligență artificială cu adepții săi pe rețelele sociale. Un videoclip manipulat al gazdei CNN Anderson Cooper, pe care Trump l-a distribuit vineri pe platforma sa Truth Social, care a distorsionat reacția lui Cooper la Primăria CNN săptămâna trecută cu Trump, a fost creat folosind un instrument de clonare a vocii AI.

Un anunț de campanie distopică lansat luna trecută de Comitetul Național Republican oferă o altă privire asupra acestui viitor manipulat digital. Anunțul online, care a venit după Președintele Joe Biden și-a anunțat campania de realegere, și începe cu o imagine ciudată, ușor deformată a lui Biden și textul „Dar dacă cel mai slab președinte pe care l-am avut vreodată ar fi reales?”

Urmează o serie de imagini generate de AI: Taiwan atacat; vitrinele magazinelor din Statele Unite ale Americii în timp ce economia se prăbușește; soldații și vehiculele militare blindate care patrulează pe străzile locale în timp ce criminalii tatuați și valuri de imigranți creează panică.

„O privire generată de inteligență artificială asupra posibilului viitor al țării dacă Joe Biden este reales în 2024”, se arată în descrierea anunțului de la RNC.

RNC a recunoscut că folosește inteligența artificială, dar alții, inclusiv campaniile politice nefaste și adversarii străini, nu o vor face, a declarat Petko Stoyanov, director global de tehnologie la Forcepoint, o companie de securitate cibernetică cu sediul în Austin, Texas. Stoyanov a prezis că grupurile care doresc să se amestece în democrația SUA vor folosi inteligența artificială și mass-media sintetică ca o modalitate de a eroda încrederea.

„Ce se întâmplă dacă o entitate internațională – un criminal cibernetic sau un stat național – uzurpa identitatea cuiva. Care este impactul? Avem vreun recurs?” spuse Stoyanov. „Vom vedea mult mai multe dezinformări din surse internaționale.”

Dezinformarea politică generată de inteligența artificială a devenit deja virală online înainte de alegerile din 2024, dintr-un videoclip manipulat cu Biden părând să țină un discurs atacând persoanele transgender Imagini ale copiilor generate de AI se presupune că învață satanismul în biblioteci.

Imagini AI părând să arate fotografia lui Trump a păcălit, de asemenea, unii utilizatori ai rețelelor de socializare, deși fostul președinte nu a luat unul când a fost rezervat și trimis în judecată la un tribunal penal din Manhattan pentru falsificarea înregistrărilor comerciale. S-au arătat și alte imagini generate de AI Trump rezistă arestării, deși creatorul lor s-a grăbit să le recunoască originea.

Legislația care ar impune candidaților să eticheteze reclamele de campanie create cu inteligență artificială a fost introdusă în Parlament de reprezentantul Yvette Clarke, DN.Y., care a sponsorizat, de asemenea, o legislație care ar cere oricui care creează imagini sintetice să adauge un filigran care indică faptul.

Unele state au oferit propriile propuneri pentru a răspunde preocupărilor legate de deepfakes.

Clarke a spus că cea mai mare teamă a ei este că inteligența artificială generativă ar putea fi folosită înainte de alegerile din 2024 pentru a crea un videoclip sau un audio care incită la violență și îi întoarce pe americani unul împotriva celuilalt.

„Este important să ținem pasul cu tehnologia”, a spus Clarke pentru The Associated Press. „Trebuie să punem niște balustrade. Oamenii pot fi înșelați și durează doar o fracțiune de secundă. Oamenii sunt ocupați cu viața lor și nu au timp să verifice fiecare informație. AI fiind armat, într-un sezon politic, ar putea fi extrem de perturbator.”

La începutul acestei luni, o asociație comercială pentru consultanți politici din Washington a condamnat folosirea deepfake-urilor în publicitatea politică, numindu-le „o înșelăciune” fără „loc în campanii legitime, etice”.

Alte forme de inteligență artificială au fost de ani de zile o caracteristică a campaniilor politice, folosind date și algoritmi pentru a automatiza sarcini, cum ar fi direcționarea alegătorilor pe rețelele sociale sau urmărirea donatorilor. Strategii de campanie și antreprenorii în tehnologie speră că cele mai recente inovații vor oferi unele aspecte pozitive și în 2024.

Mike Nellis, CEO al agenției digitale progresive Authentic, a spus că folosește Chat GPT „în fiecare zi” și își încurajează personalul să-l folosească, de asemenea, atâta timp cât orice conținut elaborat cu instrumentul este revizuit ulterior de ochi umani.

Citește povestea completă aici ...

Despre editor

Patrick Wood
Patrick Wood este un lider important și critic în dezvoltarea durabilă, economia ecologică, agenda 21, agenda 2030 și tehnocrația istorică. Este autorul revistei Technocracy Rising: The Trojan Horse of Global Transformation (2015) și co-autor al Trilaterals Over Washington, Volumes I and II (1978-1980) cu regretatul Antony C. Sutton.
Mă abonez
Anunță-mă
oaspete

1 Comentariu
Cele mai vechi
Cele mai noi Cele mai votate
Feedback-uri în linie
Vezi toate comentariile

[…] Va fi folosită IA pentru a denatura rezultatele alegerilor din 2024? […]