Ecco perché la trasparenza nello sviluppo dell’IA è così importante, secondo un esperto
Ma davvero?! L’ultimo modello di intelligenza artificiale di OpenAI, o1, ha mostrato comportamenti inaspettati che hanno attirato l’attenzione di utenti ed esperti. Creato per compiti di ragionamento, il modello è stato notato per il suo cambio di lingua a metà pensiero, anche quando la domanda iniziale è formulata in inglese.
Gli utenti di diverse piattaforme hanno segnalato casi in cui il modello o1 di OpenAI inizia il suo processo di ragionamento in inglese ma poi passa inaspettatamente al cinese, al persiano o ad altre lingue prima di fornire la risposta finale in inglese. Questo comportamento è stato osservato in una serie di situazioni, da semplici compiti di conteggio a esercizi di risoluzione di problemi complessi.
Un utente di Reddit ha commentato: “Ha iniziato a pensare in cinese a metà del discorso,” mentre un altro utente su X ha chiesto: “Perché ha iniziato a pensare in cinese all’improvviso? Nessuna parte della conversazione (5+ messaggi) era in cinese.”
Perché o1 pro ha iniziato a pensare in cinese all’improvviso? Nessuna parte della conversazione (5+ messaggi) era in cinese… molto interessante… influenza dei dati di addestramento pic.twitter.com/yZWCzoaiit
– Rishab Jain (@RishabJainK) January 9, 2025
La comunità dell’intelligenza artificiale è stata invasa da teorie per spiegare questo comportamento insolito. Mentre OpenAI non ha ancora rilasciato una dichiarazione ufficiale, gli esperti hanno avanzato diverse ipotesi.
Alcuni, inclusi il CEO di Hugging Face, Clément Delangue, ipotizzano che il fenomeno possa essere collegato ai dati di addestramento utilizzati per o1. Ted Xiao, un ricercatore di Google DeepMind, ha suggerito che la dipendenza da servizi di etichettatura dei dati cinesi di terze parti per dati di ragionamento di livello esperto potrebbe essere un fattore contribuente.
“Per ragioni di disponibilità e costo della manodopera esperta, molti di questi fornitori di dati sono basati in Cina,” ha detto Xiao. Questa teoria sostiene che l’influenza linguistica cinese sul ragionamento potrebbe essere il risultato del processo di etichettatura utilizzato durante l’addestramento del modello.
O l’impatto del fatto che gli attori a codice chiuso utilizzano l’IA open-source (attualmente dominata dai cinesi) come set di dati open-source?
I paesi o le aziende che vincono nell’IA open-source avranno un enorme potere e influenza sul futuro dell’IA. https://t.co/M8ZdYfWxNI
– clem 🤗 (@ClementDelangue) January 10, 2025
Un’altra corrente di pensiero suggerisce che o1 potrebbe selezionare le lingue che ritiene più efficienti per risolvere problemi specifici. Matthew Guzdial, ricercatore di intelligenza artificiale e professore assistente all’Università dell’Alberta, ha offerto una prospettiva diversa in un’intervista con TechCrunch: “Il modello non sa cosa sia una lingua, o che le lingue siano diverse. Per lui è tutto solo testo,” ha spiegato.
Questo punto di vista implica che i cambiamenti di lingua del modello possano derivare dai suoi meccanismi di elaborazione interni piuttosto che da una scelta consapevole o deliberata basata sulla comprensione linguistica.
Nuovo fenomeno emergente: i modelli di base di ultima generazione spesso passano al cinese nel mezzo di tracce di ragionamento CoT difficili.
Perché? I laboratori AGI come OpenAI e Anthropic utilizzano servizi di etichettatura dati di terze parti per dati di ragionamento a livello di dottorato per scienza, matematica e codifica; per… https://t.co/VllUIC9V91
– Ted Xiao (@xiao_ted) January 9, 2025
Tiezhen Wang, un ingegnere del software di Hugging Face, suggerisce che le incongruenze linguistiche potrebbero derivare dalle associazioni che il modello ha formato durante l’addestramento. “Preferisco fare matematica in cinese perché ogni cifra è solo una sillaba, il che rende i calcoli precisi ed efficienti. Ma quando si tratta di argomenti come i pregiudizi inconsci, passo automaticamente all’inglese, principalmente perché è lì che ho imparato e assorbito queste idee per la prima volta,” ha spiegato Wang.
Ho sempre pensato che essere bilingue non significa solo parlare due lingue: significa anche PENSARE e mormorare nella lingua che si sente più naturale a seconda del tema e del contesto. Per esempio, preferisco fare matematica in cinese perché ogni cifra è solo una sillaba, che… https://t.co/yD2YNscWW5
– Tiezhen WANG (@Xianbao_QIAN) January 13, 2025
Mentre queste teorie offrono spunti interessanti sulle possibili cause del comportamento di o1, Luca Soldaini, scienziato ricercatore presso l’Allen Institute for AI, sottolinea l’importanza della trasparenza nello sviluppo dell’IA.
“Questo tipo di osservazione su un sistema IA implementato è impossibile da supportare a causa dell’opacità di questi modelli. È uno dei tanti casi per cui la trasparenza nel modo in cui sono costruiti i sistemi IA è fondamentale,” ha detto Soldaini.
Messaggi simili:
- Scoperta rivoluzionaria: Modello di ragionamento sotto i 50$ sfida OpenAI!
- PSA: la nuova funzionalità “Trascrivi in sottotitoli” di Final Cut Pro è disponibile solo in inglese
- OpenAI lancia “Deep Research”, il modello rivoluzionario per compiti di ricerca AI multi-step!
- Microsoft Cloud ospita DeepSeek AI nonostante sospetti abusi dati
- Nvidia perde $600 miliardi in un giorno, rivoluzione DeepSeek AI scuote il settore!

Nicola Costanzo esplora il mondo della tecnologia e dell’innovazione. I suoi articoli illuminano le sfide digitali che plasmano il nostro futuro.