OpenAI monitora la situazione senza allarmismi
Imbarazzo: Quando ChatGPT non viene utilizzato per creare quelle immagini virali ispirate a Studio Ghibli che invadono i tuoi social, può essere impiegato per generare false ricevute. Il chatbot basato sull’IA ha finalmente raggiunto una competenza tale nel comprendere e generare testo all’interno delle immagini che alcuni utenti astuti hanno scoperto di poter produrre ricevute fittizie. Queste possono poi essere facilmente scambiate per valide prove d’acquisto da occhi inesperti.
Fino a poco tempo fa, le immagini generate dall’IA presentavano un grande difetto: testi confusi o privi di senso. Molti modelli sono riusciti a risolvere problemi come mani deformate tanto che ora non rappresentano più un problema. Tuttavia, il testo è rimasto una sorta di tallone d’Achille. Ma la situazione sta cambiando rapidamente.
Ad esempio, con l’ultimo aggiornamento del modello 4o di generazione di immagini di ChatGPT, gli utenti possono creare ricevute con una formattazione quasi perfetta, liste dettagliate degli articoli e loghi che sembrano realistici. Naturalmente, non sono ancora completamente senza difetti e possono apparire eccessivamente nitidi, avere testi con spaziature strane e persino errori matematici.
Penso che nell’immagine originale le lettere siano troppo perfette e non si pieghino con la carta. Sembra che galleggino sopra la carta. Ecco il mio tentativo di renderlo più realistico. Fatemi sapere cosa ne pensate. pic.twitter.com/EixRSHubeY
– Michael Gofman (@michaelgofman) 29 marzo 2025
Tuttavia, le ricevute – specialmente per importi minori – non vengono spesso scrutinizzate attentamente. Alcuni ritocchi in Photoshop, come l’aggiunta di macchie, potrebbero facilmente ingannare un datore di lavoro. Il vantaggio per i truffatori è chiaro. Tutto ciò che devono fare è spendere pochi minuti utilizzando ChatGPT e Photoshop, e anche se il trucco funziona solo occasionalmente, resta comunque uno schema a basso sforzo e ad alto rendimento.
Attualmente, il metodo più efficace potrebbe essere quello di fornire a ChatGPT una ricevuta esistente e modificare dettagli come prezzi o date. Ma con il miglioramento della tecnologia, le ricevute completamente fabbricate potrebbero diventare indistinguibili da quelle reali.
Si potrebbe pensare che tutto questo farebbe suonare i campanelli d’allarme alla sede di OpenAI, ma mentre l’azienda ha riconosciuto il rischio, non sta premendo il pulsante del panico per ora. Un portavoce dell’azienda ha spiegato a TechRadar che monitora la generazione di immagini sia sulla sua piattaforma che fuori, utilizza strumenti interni per verificare i contenuti creati dall’IA e interviene quando si verificano violazioni delle politiche di utilizzo.
Interessantemente, OpenAI vede anche un lato positivo in questa capacità. La portavoce Taya Christianson ha suggerito a TechCrunch che le false ricevute potrebbero essere utilizzate per l’educazione alla alfabetizzazione finanziaria insegnando alle persone come tenere traccia delle spese o riconoscere le frodi in un contesto controllato.
Tuttavia, resta da chiedersi se questa capacità risulti in un beneficio netto per la società.
Messaggi simili:
- ChatGPT è attualmente inattivo; Integrazione di Siri in iOS 18.2 interessata
- ChatGTP per macOS ora funziona con app di terze parti, incluso Xcode di Apple
- ChatGPT Ricerca Web Aperta a Tutti, Nessun Accesso Necessario!
- OpenAI ottiene 40 miliardi di dollari in finanziamenti, mentre ChatGPT danneggia le GPU!
- Uomo Denuncia ChatGPT per Falsa Accusa di Omicidio dei Figli

Nicola Costanzo esplora il mondo della tecnologia e dell’innovazione. I suoi articoli illuminano le sfide digitali che plasmano il nostro futuro.