marți, iulie 8, 2025

Un impostor a imitat vocea lui Marco Rubio cu ajutorul AI și a contactat oficiali internaționali

Share

Un impostor a reușit să păcălească oficiali internaționali, folosindu-se de Inteligența Artificială pentru a imita vocea senatorului american Marco Rubio. Incidentul, menționat într-un document diplomatic consultat de Reuters, atrage din nou atenția asupra pericolelor tot mai sofisticate asociate tehnologiei vocale generate de AI.

Mesaje vocale false trimise prin Signal

Potrivit documentului, la jumătatea lunii iunie, impostorul a contactat trei miniștri de externe, un guvernator american și un membru al Congresului, folosind aplicația de mesagerie criptată Signal. În două cazuri au fost lăsate mesaje vocale generate artificial, iar într-un altul – un mesaj text prin care se propunea continuarea discuției pe aceeași platformă.

„Autorul a urmărit probabil să manipuleze persoanele vizate folosind mesaje text şi vocale generate de inteligenţa artificială, cu scopul de a obţine acces la informaţii sau conturi”, se precizează în documentul transmis în rețeaua diplomatică americană.

Alertă oficială transmisă ambasadelor americane

În data de 3 iulie, Departamentul de Stat al SUA a emis o telegramă oficială către toate misiunile diplomatice și consulare, îndemnând personalul să informeze partenerii externi cu privire la riscurile tot mai frecvente de uzurpare a identității prin mijloace digitale.

Deși incidentul nu a compromis direct rețelele Departamentului, autoritățile avertizează că datele partajate cu o terță parte ar putea deveni vulnerabile, dacă oficialii contactați sunt induși în eroare.

Cazuri anterioare atribuite hackerilor ruși

Telegrama face referire și la o altă campanie cibernetică, desfășurată în aprilie, atribuită unui hacker afiliat serviciilor secrete ruse (SVR). În cadrul acesteia, s-au folosit tactici de spear-phishing pentru a viza activiști, foști oficiali americani și organizații din Europa de Est.

Atacul a presupus trimiterea unor e-mailuri care imitau cu fidelitate adresele oficiale ale Departamentului de Stat („@state.gov”) și includeau logouri și elemente vizuale ale Biroului de Tehnologie Diplomatică. Conținutul demonstra o cunoaștere avansată a structurii și procedurilor interne ale instituției americane.

Tehnologia vocală AI: o nouă armă a războiului informațional

Acest caz evidențiază modul în care inteligența artificială devine un instrument de manipulare tot mai puternic. Tehnologia de clonare vocală a avansat într-atât încât vocile unor oficiali de rang înalt pot fi imitate cu acuratețe, deschizând noi căi pentru atacuri de dezinformare, șantaj sau spionaj.

Într-un climat geopolitic fragil, astfel de tehnici ar putea fi folosite nu doar pentru a obține informații, ci și pentru a crea confuzie diplomatică sau a discredita lideri internaționali.
Recomandări de securitate

În contextul acestui incident, Departamentul de Stat subliniază importanța:

-verficării riguroase a identității interlocutorilor;

-utilizării canalelor de comunicare sigure și verificate;

-educării personalului cu privire la tacticile moderne de inginerie socială;

-raportării rapide a oricărui contact suspect către autoritățile competente.

Read more

Local News