ChatGPT crea ricevute false così reali da ingannare le aziende!

OpenAI monitora la situazione senza allarmismi

Imbarazzo: Quando ChatGPT non viene utilizzato per creare quelle immagini virali ispirate a Studio Ghibli che invadono i tuoi social, può essere impiegato per generare false ricevute. Il chatbot basato sull’IA ha finalmente raggiunto una competenza tale nel comprendere e generare testo all’interno delle immagini che alcuni utenti astuti hanno scoperto di poter produrre ricevute fittizie. Queste possono poi essere facilmente scambiate per valide prove d’acquisto da occhi inesperti.

Fino a poco tempo fa, le immagini generate dall’IA presentavano un grande difetto: testi confusi o privi di senso. Molti modelli sono riusciti a risolvere problemi come mani deformate tanto che ora non rappresentano più un problema. Tuttavia, il testo è rimasto una sorta di tallone d’Achille. Ma la situazione sta cambiando rapidamente.

Ad esempio, con l’ultimo aggiornamento del modello 4o di generazione di immagini di ChatGPT, gli utenti possono creare ricevute con una formattazione quasi perfetta, liste dettagliate degli articoli e loghi che sembrano realistici. Naturalmente, non sono ancora completamente senza difetti e possono apparire eccessivamente nitidi, avere testi con spaziature strane e persino errori matematici.

Tuttavia, le ricevute – specialmente per importi minori – non vengono spesso scrutinizzate attentamente. Alcuni ritocchi in Photoshop, come l’aggiunta di macchie, potrebbero facilmente ingannare un datore di lavoro. Il vantaggio per i truffatori è chiaro. Tutto ciò che devono fare è spendere pochi minuti utilizzando ChatGPT e Photoshop, e anche se il trucco funziona solo occasionalmente, resta comunque uno schema a basso sforzo e ad alto rendimento.

LEGGI  Uomo Greco condannato per sito torrent privato: la sentenza dopo 10 anni!

Attualmente, il metodo più efficace potrebbe essere quello di fornire a ChatGPT una ricevuta esistente e modificare dettagli come prezzi o date. Ma con il miglioramento della tecnologia, le ricevute completamente fabbricate potrebbero diventare indistinguibili da quelle reali.

Si potrebbe pensare che tutto questo farebbe suonare i campanelli d’allarme alla sede di OpenAI, ma mentre l’azienda ha riconosciuto il rischio, non sta premendo il pulsante del panico per ora. Un portavoce dell’azienda ha spiegato a TechRadar che monitora la generazione di immagini sia sulla sua piattaforma che fuori, utilizza strumenti interni per verificare i contenuti creati dall’IA e interviene quando si verificano violazioni delle politiche di utilizzo.

Interessantemente, OpenAI vede anche un lato positivo in questa capacità. La portavoce Taya Christianson ha suggerito a TechCrunch che le false ricevute potrebbero essere utilizzate per l’educazione alla alfabetizzazione finanziaria insegnando alle persone come tenere traccia delle spese o riconoscere le frodi in un contesto controllato.

Tuttavia, resta da chiedersi se questa capacità risulti in un beneficio netto per la società.

Messaggi simili: