Falsi negozi, deepfake e chatbot: l’IA alimenta una nuova ondata di truffe
In breve: Pare che una delle professioni più attratte dall’intelligenza artificiale generativa sia quella del cybercriminale. Microsoft avverte che la tecnologia è avanzata a tal punto che ora è possibile creare una truffa online in pochi minuti invece di giorni o settimane, senza necessità di ampie conoscenze tecniche.
Nell’ultima edizione del rapporto Cyber Signals, Microsoft afferma che l’IA ha iniziato ad abbassare la barriera tecnica per i truffatori e i criminali informatici, fornendo loro strumenti per aumentare la propria produttività.
L’uso dell’IA nelle truffe online è vasto. Questi strumenti possono, ad esempio, aiutare a creare esche per l’ingegneria sociale scansionando e raccogliendo informazioni dal web per costruire profili dettagliati di dipendenti o altri obiettivi.
Si registrano anche casi di schemi di frode complessi che impiegano recensioni di prodotti potenziate dall’IA e negozi online generati artificialmente, con truffatori che creano interi siti web fasulli e marchi di e-commerce inventati, completi di storie aziendali fittizie e testimonianze di clienti. I truffatori possono anche utilizzare l’IA per chatbot di assistenza clienti che mentono riguardo addebiti inspiegabili e altre anomalie.
È noto da tempo che l’avanzamento della tecnologia dei deepfake sta rendendo questo strumento popolare tra i truffatori. Abbiamo visto il suo utilizzo per creare false approvazioni di celebrità, impersonare amici e membri della famiglia e, come nota Microsoft, per colloqui di lavoro – sia per l’assunzione che per la candidatura – effettuati tramite videochiamata. L’azienda segnala che ritardi nel sincronismo delle labbra, discorsi robotici o espressioni facciali insolite sono segnali che possono indicare che la persona dall’altra parte della videochiamata potrebbe essere un deepfake.

Microsoft raccomanda ai consumatori di diffidare di offerte a tempo limitato, timer di conto alla rovescia e recensioni sospette. Dovrebbero anche verificare i nomi dei domini e le recensioni prima di effettuare acquisti, evitando metodi di pagamento che non offrono protezioni contro le frodi, come i trasferimenti bancari diretti e i pagamenti in criptovaluta.
Le truffe relative all’assistenza tecnica sono in aumento. Anche se l’IA non è sempre coinvolta in questi incidenti, i truffatori dell’assistenza tecnica spesso si fingono supporto IT legittimo di aziende note e usano tattiche di ingegneria sociale per guadagnare la fiducia delle loro vittime.
Lo strumento Windows Quick Assist, che permette a qualcuno di utilizzare una connessione remota per visualizzare uno schermo o prenderne il controllo per risolvere problemi, è regolarmente utilizzato in queste truffe. Di conseguenza, Microsoft sta aggiungendo avvisi a Quick Assist e richiede agli utenti di spuntare una casella che riconosce le implicazioni di sicurezza della condivisione dello schermo. Microsoft raccomanda anche di usare Remote Help invece di Quick Assist per l’assistenza tecnica interna.
Sebbene il post si concentri sui pericoli delle truffe IA, nota anche che Microsoft continua a proteggere le sue piattaforme e i suoi clienti dai criminali informatici. Tra aprile 2024 e aprile 2025, Microsoft ha impedito tentativi di frode per un valore di 4 miliardi di dollari, ha respinto 49.000 iscrizioni di partnership fraudolente e ha bloccato circa 1,6 milioni di tentativi di iscrizione da bot ogni ora.
Messaggi simili:
- La rete telefonica impiega la “nonna” dell’intelligenza artificiale per far perdere tempo ai truffatori con conversazioni tortuose
- Jennifer Aniston scioccata: truffatori usano il suo nome per ingannare!
- Microsoft elimina una funzione di sicurezza rivoluzionaria in vecchie versioni di Windows 11
- Scandalo Biglietti Taylor Swift: Famiglie Truffate per Oltre $15,000 nel Tour Eras!
- Le Migliori Offerte di Cyber Monday: Scopri i Saldi Anticipati dei Negozi Online!

Nicola Costanzo esplora il mondo della tecnologia e dell’innovazione. I suoi articoli illuminano le sfide digitali che plasmano il nostro futuro.