Asemenea teroriștilor Hamas, guvernul iranian desfășoară o campanie de influențare digitală folosind conținut media generat artificial pentru a proiecta o imagine de supremație militară și a răspândi în același timp frica. Această inițiativă estompează atât de eficient granița dintre realitate și ficțiune, încât chiar și instrumente precum Grok de la xAI, creat de Elon Musk, au omis să detecteze unele falsuri cheie, printre care un videoclip sintetic care a devenit viral și care prezenta un presupus atac asupra Tel Avivului. Campania este amplificată prin coordonarea dintre canalele de informare aliniate statului, inclusiv Tehran Times, și rețelele de propagandă străine, precum Russia Support, formând un ecosistem rezistent de dezinformare transfrontalier.
În timp ce atacuri de represalii reale au vizat bazele americane din regiune, rețelele sociale au fost, de asemenea, saturate cu clipuri neverificate care arată bombardamente și scene de pe câmpul de luptă care nu au fost niciodată raportate. Multe dintre aceste videoclipuri au fost dezvăluite ulterior ca fiind generate de inteligența artificială sau reciclate din conflicte mai vechi.
Tocmai acest lucru face ca aceste campanii să fie atât de periculoase. Tehnologiile media sintetice sofisticate pot crea „dovezi” vizuale ale succesului militar, permițând ca narațiunile false să devină virale înainte ca guvernele, jurnaliștii sau platformele să le poată contrazice. Scopul nu este doar acela de a induce în eroare publicul cu privire la un eveniment sau altul. Este acela de a semăna confuzie, de a eroda încrederea în jurnalismul legitim și de a proiecta o imagine a capacității militare care nu există.
- Iranul nu câștigă acest război
- În culisele eliminării ayatollahului Khamenei: Camere de trafic compromise, comunicații sabotate și informatori CIA
- Dincolo de retorica mainstream: A stopa violența iraniană nu înseamnă a începe un război
Dependența crescândă a Iranului de mass-media fabricată și reciclată dezvăluie atât slăbiciune, cât și putere. Confruntat cu puterea militară convențională superioară a Statelor Unite și a Israelului, Teheranul duce din ce în ce mai mult un război psihologic online. Instrumentele de AI ieftine și larg disponibile permit acum regimului și aliaților săi să genereze falsuri digitale convingătoare la scară largă, oferindu-le o nouă modalitate de a modela percepțiile atât pe plan intern, cât și internațional.
Accesibilitatea rapidă a instrumentelor de generare bazate pe AI a alimentat această creștere a numărului de falsuri digitale convingătoare. Pe 2 martie, mass-media de stat iraniană și oficialii iranieni au difuzat imagini generate de AI cu un zgârie-nori în flăcări în Bahrain. Acestea au fost postate de @TehranTimes79, un cont verificat de Grok, administrat de guvernul iranian — sau, mai precis, de entități strâns legate de și controlate de Republica Islamică Iran.
S-a dovedit că videoclipul postat era fals, dar clipul înregistrase deja câteva milioane de vizualizări până în momentul în care a fost demascat.
Aceste informații false ajung adesea la un public foarte larg înainte de a fi demascate. De exemplu, un cont gestionat de ruși, @RussiaSupportt, a publicat o imagine falsă a unui bombardier american B-2 doborât, care a strâns peste un milion de vizualizări, alături de imagini generate pe computer cu membri ai Delta Force capturați. Deși acest cont este rus, imaginea a fost distribuită de numeroase instituții media din Iran, printre care și Tehran Times.
Videoclipurile generate de AI în care apăreau membri ai forțelor de ordine capturați au înregistrat peste 5 milioane de vizualizări înainte de a fi eliminate.
Grok nu a reușit, încă o dată, să identifice caracterul fals al conținutului, permițând astfel dezinformării să se răspândească și mai mult. După ce Grok a corectat eroarea, fotografia a fost eliminată, dar, din nou, răul fusese deja făcut.
Utilizarea de către guvernul iranian a mijloacelor media sintetice pentru a alimenta campaniile de dezinformare nu este doar o schimbare tehnologică; este o strategie extrem de eficientă pentru controlul narațiunii la nivel național și internațional. Propaganda produsă de stat este folosită nu doar pentru a-și controla agenda, ci și pentru a semăna frica în rândul cetățenilor iranieni care trăiesc în zona de război.
Iranul încearcă să submineze încrederea în informațiile veridice, îngreunând identificarea surselor de încredere de către public. Confruntat cu tehnologia militară convențională superioară a adversarilor precum Israelul și SUA, Iranul folosește aceste mijloace media îmbunătățite prin AI pentru a duce o bătălie „psihologică”.
Prin transformarea AI într-o armă pentru a exploata „ceața războiului”, Teheranul nu vizează doar obiectivele militare, ci chiar conceptul de adevăr obiectiv. Pe măsură ce aceste falsuri digitale devin imposibil de distins de realitate, linia frontului se mută de pe câmpul de luptă fizic în fluxul digital.
Pericolul suprem nu este doar o singură minciună virală, ci un viitor în care publicul devine atât de cinic încât nu mai poate recunoaște adevărul atunci când acesta apare cu adevărat. În această nouă eră a conflictelor, capacitatea de a verifica informațiile a devenit la fel de critică ca și capacitatea de a apăra spațiul aerian.
Această strategie nu este fără precedent; atât Rusia, cât și China au recurs frecvent la propagandă generată de inteligența artificială pentru a-și promova obiectivele geopolitice.
Având în vedere ritmul fulgerător al progresului tehnologic, se preconizează că aceste tactici vor deveni din ce în ce mai răspândite și mai greu de detectat.