Poliția Română a publicat un ghid pentru identificarea videoclipurilor Deep Fake, într-o lume în care volumul mare de informații face ca delimitarea dintre adevăr și fals să fie fragilă. Inteligența artificială (AI) a evoluat semnificativ în ultimii ani, facilitând crearea de videoclipuri și imagini extrem de realiste. În prezent, aceste tehnologii sunt folosite în principal pentru divertisment, însă un aspect negativ îl reprezintă utilizarea lor ca instrument de inducere în eroare, în scopuri financiare ilegale.
„Niciodată, autoritățile nu vor contacta cetățenii prin videoclipuri, folosind anumite aplicații”
Deepfake-urile – videoclipuri false generate cu ajutorul AI – și imaginile create artificial au devenit instrumentele preferate ale infractorilor în criminalitatea cibernetică, fiind promovate intens pe platformele de socializare.
Chiar și persoane de bună-credință pot fi induse în eroare de aceste „capcane”, crezând că recognosc celebrități, experți financiari sau persoane aflate în dificultate.
„Recent, au fost semnalate multiple cazuri în care s-au realizat videoclipuri false utilizând inteligența artificială, reprezentând ofițeri de poliție sau consultanți financiari fictivi, cu scopul de a induce victimele în eroare pentru a realiza investiții false sau pentru a obține date financiare, pentru a efectua ulterior tranzacții frauduloase.”
Prin urmare, pe lângă recomandările menționate, precizăm că polițiștii nu vor contacta niciodată cetățenii prin videoclipuri trimise de aplicații și nu vor oferi sfaturi de investiții. În plus, autoritățile colaborează exclusiv cu instituții financiare pentru recuperarea prejudiciilor”, au subliniat reprezentanții Poliției.
Ghid pentru detectarea Deep Fake, emis de Poliția Română
Cele mai frecvente tehnici de operare în anul 2025:
- Fraudă de tip trading și investiții false. Videoclipuri Deepfake cu lideri de afaceri, personalități sau politicieni care „recomandă” platforme de investiții în criptomonede, forex sau „tehnologie AI miraculoasă” ce promite multiplicarea rapidă a banilor. Victimele sunt direcționate către site-uri false unde depun bani, care în realitate ajung la infractori prin scheme informatice cu transfer de monede virtuale sau fiat.
Procese utilizate frecvent în imagini și videoclipuri în scopuri ilegale:
- Escrocherii romantice și înșelăciuni cu identitate falsă;
- Profiluri false de influenceri promovând produse sau scheme de investiții frauduloase;
- Crearea de povești false cu martori fictivi, demonstrând câți oameni s-au îmbogățit;
- Șantaj sau hărțuire prin poze false sau compromise;
Folosirea ilegală a inteligenței artificiale poate avea următoarele consecințe:
- Pierderi financiare directe;
- Traume emoționale – victime care donează ultimele resurse pentru false „copii bolnavi” sau se îndrăgostesc de persoane fictive;
- Erodarea încrederii în media și instituții: „Dacă nimic nu mai e real, nimic nu mai contează”;
manipulare politică și electorală cu deepfake-uri ale candidaților; - Deteriorarea reputației personale – revenge porn deepfake, folosit în special împotriva femeilor;
- Amenințări la adresa securității naționale – deepfake-uri cu lideri politici care declară război sau alte acțiuni.
Pentru a sprijini cetățenii în recunoașterea conținuturilor generate de inteligență artificială, recomandăm măsuri și indicatori de verificare:
Ce trebuie verificat în cazul videoclipurilor Deepfake:
- Mișcarea ochilor – în deepfake-urile mai vechi, clipitul era anormal, însă în 2025, acest aspect s-a îmbunătățit, deși apar încă inconsistențe;
- Sincronizarea buzelor cu sunetul – adesea imperfectă, mai ales în limbaje non-engleză;
- Iluminarea și umbrele – verifică dacă lumina de pe față se potrivește cu mediul;
- Reflexii în ochi și dinți – lipsește sau sunt nenaturale;
- Mâini și degete – o deficiență frecventă la modelele AI, aspectul degetelor fiind adesea inadecvat, cu număr incorect sau deformări;
- Artefacte – pete ciudate, blur, tranziții nenaturale;
- Mâini și degete deformate – frecvent întâlnite în deepfake-urile din 2025;
- Fundal inconsistent sau obiecte suprapuse;
- Ochi asimetrici sau pupile anormale;
- Păr sau vestimentație nefirești;
- Obiecte sau elemente deformate în videoclip sau imagine;
- Folosește funcția de căutare revers: Google Lens sau TinEye – dacă imaginea nu apare în surse anterioare, este suspectă.
Ghid pentru identificarea Deep Fake, emis de Poliția Română
Măsuri de protecție și prevenție pentru utilizatori:
- Regula de bază: dacă ceva pare prea frumos pentru a fi adevărat (îmbogățire rapidă, cadouri de la celebrități, iubire în câteva săptămâni), este fals;
- Nu accesa link-uri din mesaje sau reclame nesolicitate;
- Nu transfera bani către persoane cunoscute doar online;
- Verifică întotdeauna sursa oficială a informației – dacă o personalitate promovează ceva, verifică dacă are postări oficiale;
- Activează autentificarea în doi pași (2FA) pe conturile importante, preferabil cu aplicație „Authenticator” și nu doar prin SMS;
- Raportează conținutul suspect autorităților;
- Utilizează extensii de browser care detectează automat deepfake-urile;
- Dacă ai fost victimă a unei înșelăciuni online, sesizează autoritățile în cel mai scurt timp pentru o reacție promptă, care poate sprijini investigarea.
Sursa foto: Gandul
RECOMANDAREA AUTORULUI:
- Conceptul de „lume virtuală” și impactul asupra realității: analiza care demolază mitul dominației digitale. Cartea, centrele comerciale și vehiculele înving roboții și AI-ul. Specialist digital: „O integrare a celor două lumi”