miercuri, decembrie 4

Meta a intervenit pentru a elimina aproximativ 20 de operațiuni secrete de influențare din întreaga lume în acest an. Totuși, o surpriză – firma de tehnologie a declarat că temerile legate de falsificarea alegerilor cu ajutorul AI nu s-au materializat în 2024, așa cum se preconiza, scrie The Guardian.

Nick Clegg, președintele pentru afaceri globale al companiei care administrează Facebook, Instagram și WhatsApp, a declarat că Rusia este în continuare sursa nr. 1 de activitate online adversă, dar a afirmat într-o ședință de informare că este „surprinzător” cât de puțin AI a fost utilizat pentru a încerca să păcălească alegătorii în cel mai aglomerat an pentru alegerile din întreaga lume.

Fostul viceprim-ministru britanic a dezvăluit că Meta, care are peste 3 miliarde de utilizatori, a trebuit să elimine puțin peste 500.000 de solicitări de a genera imagini ale lui Donald Trump și Kamala Harris, JD Vance și Joe Biden cu ajutorul propriilor instrumente de inteligență artificială în luna premergătoare zilei alegerilor din SUA.

Rușii au creat conturi false pentru a influența persoane din Georgia, Armenia și Azerbaidjan

Cu toate acestea, experții în securitate ai firmei au trebuit să facă față unei noi operațiuni care folosea conturi false pentru a manipula dezbaterea publică în vederea atingerii unui obiectiv strategic, la un ritm de mai mult de unul la fiecare trei săptămâni. Incidentele de „comportament neautentic coordonat” au inclus o rețea rusă care folosea zeci de conturi Facebook și site-uri de știri fictive pentru a viza persoane din Georgia, Armenia și Azerbaidjan.

O altă operațiune a avut loc în Rusia și a folosit inteligența artificială pentru a crea site-uri de știri false, folosind mărci precum Fox News și Telegraph, pentru a încerca să slăbească sprijinul occidental pentru Ucraina, și a folosit site-uri de știri false francofone pentru a promova rolul Rusiei în Africa și pentru a-l critica pe cel al Franței.

Rusia, Iran, China

„Rusia rămâne sursa nr. 1 a operațiunilor secrete de influență pe care le-am întrerupt până în prezent – cu 39 de rețele întrerupte în total din 2017”, a declarat el. Următoarele cele mai frecvente surse de interferență străină detectate de Meta sunt Iranul și China.

Oferind o evaluare a efectului falsificării AI după un val de sondaje în 50 de țări, inclusiv SUA, India, Taiwan, Franța, Germania și Marea Britanie, el a spus: „Au existat tot felul de avertismente cu privire la riscurile potențiale ale unor lucruri precum deepfakes generalizate și campanii de dezinformare activate de AI. Nu este ceea ce am văzut din ceea ce am monitorizat în cadrul serviciilor noastre. Se pare că aceste riscuri nu s-au materializat într-un mod semnificativ și că orice astfel de impact a fost modest și limitat în amploare.”

Dar Clegg a avertizat împotriva automulțumirii și a spus că impactul relativ scăzut al falsificării folosind AI generativ pentru a manipula video, voci și fotografii a fost „foarte, foarte probabil să se schimbe”.

„În mod clar, aceste instrumente vor deveni din ce în ce mai răspândite și vom vedea din ce în ce mai mult conținut sintetic și hibrid online”, a spus el.

Conținut înșelător AI

Evaluarea Meta urmează concluziilor de luna trecută ale Centrului pentru tehnologii emergente și securitate, conform cărora „conținutul înșelător generat de inteligența artificială a influențat discursul electoral din SUA prin amplificarea altor forme de dezinformare și inflamarea dezbaterilor politice”. Acesta a afirmat că nu există dovezi cu privire la impactul acestora asupra victoriei lui Donald Trump în alegeri.

Studiul a concluzionat că amenințările bazate pe inteligența artificială au început să afecteze sănătatea sistemelor democratice în 2024 și a avertizat că „nu trebuie să ne complacem” înainte de alegerile din 2025 din Australia și Canada.

Sam Stockwell, cercetător asociat la Institutul Alan Turing, a declarat că instrumentele AI ar fi putut modela discursurile electorale și amplifica narațiunile dăunătoare în moduri subtile, în special în recentele alegeri din SUA.

„Acest lucru a inclus afirmații înșelătoare conform cărora mitingul lui Kamala Harris a fost generat de AI și zvonuri nefondate conform cărora imigranții haitieni mănâncă animale de companie care au devenit virale cu ajutorul memelor xenofobe generate de AI”, a spus el.

 

Editor : S.S.

Acțiune.
Exit mobile version