Inteligența artificială (AI) a avansat exploziv în ultimii ani, permițând crearea de videoclipuri și imagini extrem de realiste. În prezent, aceste tehnologii sunt folosite în principal pentru divertisment, însă un aspect negativ îl reprezintă faptul că sunt utilizate și ca instrument de inducere în eroare a oamenilor, cu scopul de a obține câștiguri financiare nelegale.
Escrocheriile au trecut la un alt nivel, abilitățile ”hoțești” clasice fiind înlocuite în prezent cu unele care țin de aplicarea inteligenței artificiale pentru păcălirea victimelor. Înșelarea potențialelor ținte cu chipuri, mesaje și situații nereale a devenit o metodă tot mai frecvent folosită. Astfel, în fața ochilor vi se pot perinda celebrități, sportivi, actori, experți, politicieni sau, la polul opus, persoane aflate în nevoie.
Atenție, poate fi un deepfake, atrag atenția specialiștii în securitate cibernetică, care ne sfătuiesc să ne punem neaoșa întrebare ”dacă nu cumva e prea frumos să fie adevărat”.
Moduri de operare întâlnite în 2025
Preferatele infractorilor cibernetici sunt clipurile în care sunt ”copiate” imagini ale unor persoane cu notorietate, cunoscute, cu putere mare de convingere.
Trading scam și investment fraud. Videoclipuri deepfake cu oameni de afaceri, de notorietate sau cu politicieni care „recomandă” platforme de investiții crypto, forex sau „inteligență artificială miraculoasă” care promit multiplicarea banilor peste noapte. Victimele sunt direcționate către site-uri false unde depun bani spre a fi investiți și care, în realitate, ajung la autori prin diferite scheme de transfer de monede.
Scamuri caritabile. Deepfake-uri cu copii bolnavi, victime ale dezastrelor sau celebrități care cer donații urgente. Oamenii donează, prin intermediul unor linkuri false, iar sumele de bani ajung direct la infractori.
Romance scam îmbunătățit cu AI. Utilizarea de către infractori a unor profiluri false cu poze și videoclipuri generate de AI cu persoane atractive din punct de vedere al aspectului și caracterului, prin intermediul cărora dezvoltă relații emoționale, apoi cer bani pentru „urgențe medicale” sau „bilete de avion”.
CEO/CFO fraud (Business E-mail Compromise evoluat). Utilizarea de către infractori de video-call-uri deepfake în care „șeful” cere transferuri urgente de bani.
Impersonare celebrități pentru produse false. Deepfake-uri cu diverse personalități care „oferă gratuit” produse.
Potrivit statisticilor din anul 2025, tentativele de fraudă cu deepfake au crescut foarte mult pe fondul avansării tehnologiei bazate pe inteligență artificială, iar pierderile financiare globale se ridică anual la zeci de miliarde de dolari.
Clipuri cu personaje inventate
Un alt fenomen întâlnit în practică este crearea de imagini cu persoane complet fictive, imagini care sunt perfecte și descriu persoane frumoase, zâmbitoare, care par sută la sută reale, dar care nu există în realitate.
Aceste imagini sunt folosite masiv în moduri de operare precum:
- Romance scams și catfishing. Inițiere de relații amoroase cu ”victimele”.
- Profiluri false de influenceri care promovează produse sau diverse tipuri de înșelătorii sau investiții.
- Crearea de „martori” în povești false de investiții („Uite câți oameni s-au îmbogățit!”).
- Șantaj sau hărțuire (poze false cu persoane în situații compromițătoare).
Utilizarea inteligenței artificiale în scopuri ilegale poate duce la diverse consecințe, atât din punct de vedere financiar, cât și din punct de vedere al manipulării, precum: pierderi financiare directe, traume emoționale (oameni care donează ultimii bani pentru „copii bolnavi” inexistenți sau se îndrăgostesc de persoane false), erodarea încrederii în media și instituții, manipulare politică și electorală, distrugerea reputației personale, amenințări la securitatea națională.
Cum putem identifica falsurile
Deși tehnologia și priceperea infractorilor sunt într-o continuă evoluție, este bine de știut că o serie de elemente pot deconspira operațiuni mincinoase menite să creeze pagube.
Polițișii ne atrag atenţia asura următoarelor aspecte:
1. Trebuie verificat clipitul ochilor. În multe deepfake-uri vechi, clipitul era anormal, însă în anul 2025 acest aspect a fost îmbunătățit considerabil, dar încă apar inconsistențe.
2. Mișcările buzelor și sincronizarea cu sunetul. Adesea nu sunt perfecte, mai ales în alte limbi decât engleza.
3. Iluminarea și umbrele. Lumina de pe față trebuie să se potrivească cu fundalul.
4. Reflexii în ochi și dinți. Adesea lipsesc sau sunt nenaturale.
5. Mâini și degete. Acestea încă o slăbiciune majoră a multor modele AI - aspectul degetelor este anormal, ori sunt prea multe sau prea puține.
6. Caută artefacte: pete ciudate, blur în jurul feței, tranziții nenaturale.
7. Mâini și degete deformate (apar încă frecvent la deepfake-urile prezente în anul 2025).
8. Fundal inconsistent sau obiecte topite.
9. Ochi asimetrici sau pupile anormale.
10. Păr anormal sau îmbrăcăminte care nu are sens fizic.
11. Aspecte ale unor obiecte sau bunuri din videoclip sau imagine care par deformate.
Opt reguli de aur
Specialiștii au o scurtă listă de reguli cu ce trebuie să facem sau să nu facem când suntem în fața unei imagini de care avem motive să ne îndoim.
1. Regula care se aplică pentru toate măsurile de protecție împotriva oricărei tentative de înșelăciune. Dacă pare prea frumos ca să fie adevărat (îmbogățire rapidă, cadouri de la celebrități, iubire perfectă în două săptămâni etc.), este fals.
2. Nu dați click pe linkuri din reclame sau mesaje nesolicitate.
3. Nu transferați bani niciodată cuiva pe care l-ați cunoscut doar online.
4. Verificați întotdeauna sursa oficială. Dacă un om de afaceri, o persoană de notorietate sau orice altă personalitate promovează ceva, căutați pe contul acesteia oficial de pe rețelele de socializare și vedeți dacă a postat acolo.
5. Activați autentificarea în doi pași (2FA) în aplicațiile și conturile importante, folosind o aplicație de tip „Authenticator” (nu doar SMS).
6. Este necesară raportarea conținutului suspect pe platformele pe care apare.
7. Se pot folosi extensii browser care detectează automat deepfake-urile.
8. În cazurile în care ați fost victima unei înșelăciuni în mediul online, sesizați cât mai rapid organele judiciare, întrucât o reacție promptă poate sprijini în mod semnificativ desfășurarea investigațiilor.

