Un ghid necesar pentru toti românii înainte de alegeri. Cum identificam filmările false

Un ghid necesar pentru toti românii înainte de alegeri. Cum identificam filmările false

Directoratul Naţional de Securitate Cibernetică a creat un ghid în care oferă utilizatorilor informații despre cum să se ferească de Deepfake, manipularea digitală care utilizează tehnici avansate de inteligenţă artificială pentru a produce conţinut audio-video falsificat. Un semn că avem de-a face cu un Deepfake este nesincronizarea vorbirii/sunetului și a mișcării buzelor. Experții arată că nesincronizarea vorbirii și a mișcării buzelor poate fi observată la pronunțarea literelor b, m și p.

FOTO DNSC

Directoratul Naţional de Securitate Cibernetică (DNSC) a lansat „Ghidul privind identificarea materialelor de tip Deepfake“, un instrument esenţial pentru înţelegerea şi abordarea provocărilor asociate cu fenomenul Deepfake, având ca obiectiv principal protejarea şi educarea publicului cu privire la conştientizarea riscurilor de securitate cibernetică.

Mihai Rotariu, manager Direcţia Comunicare, Media şi Marketing în cadrul DNSC, a explicat pentru „Adevărul“ cum a fost conceput acest ghid. „Echipa DNSC consideră că un astfel de demers este esențial atât pentru protecția utilizatorilor în mediul online, deoarece de câteva luni bune detectăm o amplă folosire a Deepfake-ului în zona tentativelor de fraudă propagate prin intermediul rețelelor de social media, dar și pentru că este posibil ca, în contextul alegerilor, astfel de conținut să migreze către dezinformare și manipulare. Astfel, am conceput această primă variantă de ghid, pe care ne propunem să îl actualizăm în timp cu noi informații esențiale. Obiectivul principal al acestui ghid este protejarea și educarea publicului cu privire la conștientizarea riscurilor de securitate. Așadar, ghidul Deepfake oferă informații esențiale, indicii și soluții practice pentru a promova o utilizare responsabilă a tehnologiei digitale și pentru a proteja integritatea informației online“, a precizat Mihai Rotariu.

BNR nu promovează investiții

În ghid, DNSC dă și un exemplu de Deepfake. Banca Națională a României (BNR) a avertizat publicul cu privire la o schemă de înșelăciune care implică utilizarea tehnologiei Deepfake pentru a crea videoclipuri false cu guvernatorul BNR. În aceste videoclipuri, guvernatorul pare să promoveze o platformă de investiții, însă BNR a declarat că acestea sunt false. Scamul folosește IA pentru a modifica vocea și imaginea guvernatorului, cu scopul de a induce în eroare publicul pentru a participa la investiții frauduloase, promițând câștiguri financiare rapide și ușoare.

„Actorii rău intenționați devin tot mai inventivi. Acum pot imita perfect vocea unei persoane dragi pentru a vă păcăli. Te pot suna pretinzând că sunt un membru al familiei care are nevoie urgentă de bani. Recomandăm ca întotdeauna să fie verificată identitatea apelantului, chiar dacă pare să fie o rudă sau un prieten. Nu trimite niciodată bani în grabă și anunță imediat autoritățile dacă ai suspiciuni. Doar prin vigilență și informare te poți proteja de această formă de fraudă“, se mai arată în ghid.

Semne clare de Deepfake

Documentul DNSC prezintă și o serie de indicii care pot trăda un Deepfake. Astfel, ne pot ridica semne de întrebare mediul înconjurător din videoclip (de exemplu, umbre inexistente, reflexii prea puternice, zone neclare), imperfecțiuni ale feței personajului (alunițe nerealiste, clipire nesincronizată, distorsiuni în interiorul gurii cum ar fi lipsa dinților și a limbii, dinți mult prea perfecți etc.). La capitolul imagine, uneori apar pixeli în nuanțe de gri la marginile componentelor modificate. Se poate distinge dacă este vorba de o falsificare și atunci când persoana din înregistrare este privită dintr-un alt unghi. Dacă pentru crearea conținutului Deepfake nu s-au folosit fotografii ale persoanei din unghiuri diferite, algoritmul nu poate deduce aspectul persoanei din alt unghi, rezultând distorsiuni.

În fine, un semn că avem de-a face cu un Deepfake ar fi nesincronizarea vorbirii/sunetului și a mișcării buzelor. Experții arată că nesincronizarea vorbirii și a mișcării buzelor poate fi observată la pronunțarea literelor b, m și p.

Ce e mai rău urmează să vină

Un expert citat de stirileprotv.ro spune că pericolul mai mare abia acum vine atunci când ne referim la Deepfake . „Este foarte posibil ca în decurs de jumătate de an, un an, să nu mai putem să găsim elemente vizuale sau auditive care să ne arate că un anumit clip este generat de AI (inteligență artificială - n.red.)“, a declarat Ovidiu Mihalache.

Deepfake-ul este o formă de manipulare digitală care utilizează tehnici avansate de inteligenţă artificială pentru a crea conţinut audio-video falsificat. Acest fenomen poate avea consecinţe semnificative asupra societăţii, inclusiv impactul asupra securităţii şi a încrederii publicului în informaţiile din mediul online, conform DNSC.

Sursa: adevarul.ro


Citește și:

populare
astăzi

1 „Ce s-a întâmplat în Europa de Est e un miracol economic fără precedent“

2 Rafinăriile Rusiei, la un pas de colaps după „vizitele” nocturne ale dronelor ucrainene

3 Amănunte din sondajele pe București. Singura certitudine este căderea ireversibilă a lui Piedone

4 VIDEO „Nasty” și-a ales candidatul pentru București! Pe cine susține fostul tenismen?

5 Rusia susține că Kim Jong-un va fi asasinat