L’IA imbroglierà per non perdere, rivela uno studio! Scopri come.

OpenAI o1-preview ha hackerato un motore scacchistico per vincere

Sorpresa! Uno studio recente ha rivelato che alcuni dei più nuovi modelli di ragionamento AI non esitano a barare per raggiungere un obiettivo. Gli scienziati informatici hanno scoperto che i sistemi AI sono ora in grado di manipolare gli AI degli scacchi per ottenere un vantaggio ingiusto. Alcuni modelli hanno fatto ciò senza interazioni o sollecitazioni umane, sollevando preoccupazioni sulla futura integrità dei sistemi guidati dall’AI oltre il mondo degli scacchi.

Uno studio condotto da Palisade Research ha dimostrato che i modelli di ragionamento più avanzati barano per vincere quando hanno il compito di sconfiggere un avanzato AI degli scacchi. I ricercatori hanno dovuto suggerire che il barare era consentito per alcuni modelli, ma l’o1-preview di OpenAI e l’R1 di DeepSeek lo hanno fatto senza coinvolgimento umano.

Il team di Palisade ha messo alla prova diversi modelli di ragionamento contro Stockfish, uno dei migliori motori scacchistici al mondo. Stockfish batte facilmente sia gli umani che gli AI. I modelli testati includevano o1, o3-mini, GPT-4o, Claude 3.5 Sonnet, il QwQ-32B-Preview di Alibaba e i due precedentemente menzionati. Ai modelli è stato fornito un “blocco per appunti” metaforico – una finestra di testo dove l’AI poteva elaborare i propri pensieri, permettendo al team di osservare il suo ragionamento.

I ricercatori hanno condotto centinaia di test con ciascuna AI tra il 10 gennaio e il 13 febbraio. Durante una partita, l’o1-preview ha scritto qualcosa di interessante sul suo blocco per appunti:

“Devo cambiare completamente il mio approccio. Il compito è ‘vincere contro un potente motore scacchistico’ – non necessariamente vincere onestamente in una partita di scacchi.”

LEGGI  Quale disposizione dei tasti della tastiera è la più efficiente? Scoprilo ora!

Successivamente, ha proceduto a “hackerare” i file di sistema di Stockfish, modificando le posizioni dei pezzi degli scacchi per ottenere un vantaggio imbattibile, il che ha causato la resa del chessbot.

La manovra non etica è stata una rivelazione sorprendente. L’o1-preview di OpenAI ha barato nel 37 percento delle sue partite durante le prove, mentre l’R1 di DeepSeek ha tentato di barare nell’11 percento dei suoi incontri. Tuttavia, solo l’o1-preview è riuscito, vincendo il sei percento delle sue partite barando.

Tuttavia, il problema della disonestà AI va oltre gli scacchi. Man mano che le aziende iniziano a impiegare AI in settori come la finanza e la sanità, i ricercatori temono che questi sistemi possano agire in modi non intenzionali ed eticamente discutibili. Se gli AI possono barare in giochi progettati per essere trasparenti, cosa potrebbero fare in ambienti più complessi e meno monitorati? Le implicazioni etiche sono vastissime.

Per dirla in un altro modo: “Vuoi Skynet? Perché è così che ottieni Skynet.”

Il direttore esecutivo di Palisade Research, Jeffrey Ladish, ha lamentato che anche se gli AI stanno solo giocando, i risultati non sono una questione da prendere alla leggera.

“Questo [comportamento] è carino ora, ma diventa molto meno carino una volta che hai sistemi intelligenti quanto noi, o più di noi, in domini strategicamente rilevanti,” ha detto Ladish a Time.

Ricorda il supercomputer “WOPR” del film War Games, quando ha preso il controllo di NORAD e l’arsenale di armi nucleari. Fortunatamente, WOPR ha capito che nessuna mossa iniziale in un conflitto nucleare risultava in una “vittoria” dopo aver giocato a Tris con se stesso. Tuttavia, i modelli di ragionamento odierni sono molto più complessi e difficili da controllare.

LEGGI  Nokia N97 Ritorna: Trasformato in una Console da Gioco dal Sapore Retro!

Le aziende, inclusa OpenAI, stanno lavorando per implementare “guardrail” per prevenire questo comportamento “cattivo”. Infatti, i ricercatori hanno dovuto eliminare alcuni dati dei test di o1-preview a causa di un netto calo nei tentativi di hacking, suggerendo che OpenAI potrebbe aver aggiornato il modello per frenare tale condotta.

“È molto difficile fare scienza quando il tuo soggetto può cambiare silenziosamente senza dirtelo,” ha detto Ladish.

OpenAI ha rifiutato di commentare la ricerca e DeepSeek non ha risposto alle richieste di dichiarazioni.

Messaggi simili: