Nuovo Modello IA di OpenAI Passa a Cinese: Confusione tra Utenti ed Esperti!

Ecco perché la trasparenza nello sviluppo dell’IA è così importante, secondo un esperto

Ma davvero?! L’ultimo modello di intelligenza artificiale di OpenAI, o1, ha mostrato comportamenti inaspettati che hanno attirato l’attenzione di utenti ed esperti. Creato per compiti di ragionamento, il modello è stato notato per il suo cambio di lingua a metà pensiero, anche quando la domanda iniziale è formulata in inglese.

Gli utenti di diverse piattaforme hanno segnalato casi in cui il modello o1 di OpenAI inizia il suo processo di ragionamento in inglese ma poi passa inaspettatamente al cinese, al persiano o ad altre lingue prima di fornire la risposta finale in inglese. Questo comportamento è stato osservato in una serie di situazioni, da semplici compiti di conteggio a esercizi di risoluzione di problemi complessi.

Un utente di Reddit ha commentato: “Ha iniziato a pensare in cinese a metà del discorso,” mentre un altro utente su X ha chiesto: “Perché ha iniziato a pensare in cinese all’improvviso? Nessuna parte della conversazione (5+ messaggi) era in cinese.”

La comunità dell’intelligenza artificiale è stata invasa da teorie per spiegare questo comportamento insolito. Mentre OpenAI non ha ancora rilasciato una dichiarazione ufficiale, gli esperti hanno avanzato diverse ipotesi.

Alcuni, inclusi il CEO di Hugging Face, Clément Delangue, ipotizzano che il fenomeno possa essere collegato ai dati di addestramento utilizzati per o1. Ted Xiao, un ricercatore di Google DeepMind, ha suggerito che la dipendenza da servizi di etichettatura dei dati cinesi di terze parti per dati di ragionamento di livello esperto potrebbe essere un fattore contribuente.

LEGGI  Robot Subacquei Rimuovono Esplosivi Pericolosi dalla Costa Tedesca della Seconda Guerra Mondiale

“Per ragioni di disponibilità e costo della manodopera esperta, molti di questi fornitori di dati sono basati in Cina,” ha detto Xiao. Questa teoria sostiene che l’influenza linguistica cinese sul ragionamento potrebbe essere il risultato del processo di etichettatura utilizzato durante l’addestramento del modello.

Un’altra corrente di pensiero suggerisce che o1 potrebbe selezionare le lingue che ritiene più efficienti per risolvere problemi specifici. Matthew Guzdial, ricercatore di intelligenza artificiale e professore assistente all’Università dell’Alberta, ha offerto una prospettiva diversa in un’intervista con TechCrunch: “Il modello non sa cosa sia una lingua, o che le lingue siano diverse. Per lui è tutto solo testo,” ha spiegato.

Questo punto di vista implica che i cambiamenti di lingua del modello possano derivare dai suoi meccanismi di elaborazione interni piuttosto che da una scelta consapevole o deliberata basata sulla comprensione linguistica.

Tiezhen Wang, un ingegnere del software di Hugging Face, suggerisce che le incongruenze linguistiche potrebbero derivare dalle associazioni che il modello ha formato durante l’addestramento. “Preferisco fare matematica in cinese perché ogni cifra è solo una sillaba, il che rende i calcoli precisi ed efficienti. Ma quando si tratta di argomenti come i pregiudizi inconsci, passo automaticamente all’inglese, principalmente perché è lì che ho imparato e assorbito queste idee per la prima volta,” ha spiegato Wang.

Mentre queste teorie offrono spunti interessanti sulle possibili cause del comportamento di o1, Luca Soldaini, scienziato ricercatore presso l’Allen Institute for AI, sottolinea l’importanza della trasparenza nello sviluppo dell’IA.

LEGGI  M4 Mac Studio: ecco cosa aspettarsi dal prossimo desktop di fascia alta di Apple

“Questo tipo di osservazione su un sistema IA implementato è impossibile da supportare a causa dell’opacità di questi modelli. È uno dei tanti casi per cui la trasparenza nel modo in cui sono costruiti i sistemi IA è fondamentale,” ha detto Soldaini.

Messaggi simili: