Wired: Costă doar 400 de dolari să construiești o mașină de dezinformare pe bază de inteligență artificială

Inteligența artificială
Inteligența artificială
30 august 2023, 13:14

Fiecare tweet a determinat o replică scurtă, dar bine elaborată, din partea unui cont numit CounterCloud, incluzând uneori un link către o știre sau un articol de opinie relevant. Acesta a generat răspunsuri similare la tweet-uri ale ambasadei Rusiei și ale agențiilor de știri chineze care criticau SUA.

Criticile rusești la adresa SUA sunt departe de a fi neobișnuite, dar materialul de ripostă al CounterCloud a constat în: tweeturi, articole și chiar jurnaliști și site-urile de știri create în întregime de algoritmi de inteligență artificială, potrivit persoanei din spatele proiectului, care poartă numele de Nea Paw și care spune că este conceput pentru a evidenția pericolul dezinformării produse în masă de inteligența artificială. Paw nu a postat public tweet-urile și articolele CounterCloud, dar le-a furnizat către WIRED și a produs, de asemenea, un videoclip care prezintă proiectul.

Paw susține că este un profesionist în domeniul securității cibernetice care preferă anonimatul deoarece unele persoane ar putea crede că proiectul este iresponsabil. Campania CounterCloud care respinge mesajele rusești a fost creată folosind tehnologia de generare de text OpenAI, precum cea din spatele ChatGPT, și alte instrumente de inteligență artificială ușor accesibile pentru generarea de fotografii și ilustrații, spune Paw, pentru un cost total de aproximativ 400 de dolari.

Paw spune că proiectul arată că instrumentele de inteligență artificială generativă disponibile la scară largă facilitează crearea unor campanii de informare sofisticate care împing propaganda susținută de stat.

„Nu cred că există un glonț de argint pentru acest lucru, la fel cum nu există un glonț de argint pentru atacurile de phishing, spam sau inginerie socială”, spune Paw într-un e-mail. Sunt posibile măsuri de atenuare, cum ar fi educarea utilizatorilor să fie atenți la conținutul manipulator generat de IA, făcând ca sistemele de IA generativă să încerce să blocheze utilizarea abuzivă sau echipând browserele cu instrumente de detectare a IA. „Dar cred că niciunul dintre aceste lucruri nu este cu adevărat elegant sau ieftin sau deosebit de eficient”, spune Paw.

În ultimii ani, cercetătorii în domeniul dezinformării au avertizat că modelele de limbaj ale IA ar putea fi folosite pentru a crea campanii de propagandă extrem de personalizate și pentru a alimenta conturi de social media care interacționează cu utilizatorii în moduri sofisticate.

Renee DiResta, manager de cercetare tehnică la Stanford Internet Observatory, care urmărește campaniile de informare, spune că articolele și profilurile jurnaliștilor generate în cadrul proiectului CounterCloud sunt destul de convingătoare.

„Pe lângă actorii guvernamentali, agențiile de gestionare a rețelelor sociale și mercenarii care oferă servicii de influențare vor prelua fără îndoială aceste instrumente și le vor încorpora în fluxurile lor de lucru”, spune DiResta. A face ca un conținut fals să fie distribuit și împărtășit pe scară largă este o provocare, dar acest lucru poate fi realizat prin plata utilizatorilor influenți pentru a-l împărtăși, adaugă ea.

Au apărut deja unele dovezi ale unor campanii de dezinformare online bazate pe inteligență artificială. Cercetătorii au descoperit recent o rețea botnet rudimentară, care împinge criptograme, aparent alimentată de ChatGPT. Echipa a declarat că descoperirea sugerează că IA din spatele chatbot-ului este probabil să fie deja utilizată pentru campanii de informare mai sofisticate.

Campaniile politice legitime au apelat, de asemenea, la utilizarea IA înainte de alegerile prezidențiale din SUA din 2024. În aprilie, Comitetul Național Republican a produs un videoclip care îl ataca pe Joe Biden și care includea imagini false, generate de IA. Iar în iunie, un cont de socializare asociat cu Ron Desantis a inclus imagini generate de IA într-un videoclip menit să îl discrediteze pe Donald Trump. Comisia Electorală Federală a declarat că ar putea limita utilizarea de deepfakes în reclamele politice.

Micah Musser, un cercetător care a studiat potențialul de dezinformare al modelelor lingvistice de inteligență artificială, se așteaptă ca principalele campanii politice să încerce să folosească modelele lingvistice pentru a genera conținut promoțional, e-mailuri de strângere de fonduri sau anunțuri de atac. „Este o perioadă total șubredă în acest moment, în care nu este foarte clar care sunt normele”, spune el.

O mare parte din textele generate de inteligența artificială rămân destul de generice și ușor de identificat, spune Musser. Dar faptul că oamenii ar trebui să perfecționeze conținutul generat de IA care promovează dezinformarea ar putea fi foarte eficient și aproape imposibil de oprit cu ajutorul filtrelor automate, spune el.

Directorul general al OpenAI, Sam Altman, a declarat luna trecută, într-un mesaj pe Twitter, că este îngrijorat de faptul că inteligența artificială a companiei sale ar putea fi folosită pentru a crea dezinformare personalizată și automatizată la scară largă.

Atunci când OpenAI și-a pus la dispoziție pentru prima dată tehnologia de generare de texte prin intermediul unui API, a interzis orice utilizare politică. Cu toate acestea, în luna martie a acestui an, compania și-a actualizat politica pentru a interzice utilizarea care vizează producerea în masă de mesaje pentru anumite categorii demografice. Un articol recent din Washington Post sugerează că GPT nu blochează generarea de astfel de materiale.

Kim Malfacini, șef al politicii de produs la OpenAI, spune că societatea explorează modul în care tehnologia sa de generare de text este folosită în scopuri politice. Oamenii nu sunt încă obișnuiți să presupună că conținutul pe care îl văd poate fi generat de IA, spune ea. „Este probabil ca utilizarea instrumentelor de inteligență artificială în orice număr de industrii să crească, iar societatea se va actualiza”, spune Malfacini. „Dar în acest moment cred că oamenii sunt încă în proces de actualizare”.

Având în vedere că o serie de instrumente de inteligență artificială similare sunt acum disponibile pe scară largă, inclusiv modele open source pe care se poate construi cu puține restricții, alegătorii ar trebui să devină înțelepți în ceea ce privește utilizarea inteligenței artificiale în politică, mai devreme sau mai târziu.

Urmărește-ne pe Google News

Ultima Oră

Cele mai citite