Questa è la prima scelta dell’intelligenza artificiale. Questo è ciò che significa

La diffusa disponibilità dell’intelligenza artificiale generativa ha differenziato il giorno delle elezioni dal 2020, cambiando tutto, dal modo in cui gli elettori accedono alle informazioni elettorali all’aumento del volume e della sofisticazione delle informazioni false.

Le elezioni del 2024 segnano la prima volta in cui gli strumenti di intelligenza artificiale sono stati ampiamente accessibili sia al pubblico che agli attori politici e agli autori di minacce straniere. Il modo in cui vengono utilizzati o abusati potrebbe influenzare il processo democratico.

“Stiamo chiaramente iniziando a vedere i metodi e i modi in cui l’intelligenza artificiale plasmerà il discorso democratico ora e in futuro”, ha affermato Alexandra Reeve Givens, presidente e amministratore delegato del Center for Democracy and Technology (CDT). settimana delle notiziecon l’avvertenza che “gli effetti dell’intelligenza artificiale potrebbero essere ancora piccoli rispetto a quanto alcune persone avevano previsto”.

Givens ha descritto l’intelligenza artificiale generativa come “la lente d’ingrandimento degli sforzi di influenza esistenti” che può rendere la disinformazione da parte di attori di minacce straniere “più economica, più facile e forse più convincente”.

Disinformazione degli elettori e il ruolo dei chatbot

Givens ha espresso preoccupazione per gli elettori che si affidano ai chatbot basati sull’intelligenza artificiale per ottenere informazioni. “Gli elettori non dovrebbero rivolgersi ai chatbot basati sull’intelligenza artificiale per ottenere informazioni autorevoli sul voto o su qualsiasi argomento in cui sia essenziale ricevere informazioni tempestive e accurate”, ha avvertito. “Le prove mostrano troppe risposte imprecise e incomplete.”

Ad esempio, nel febbraio 2024, AI Democracy Projects ha pubblicato un rapporto di ricerca intitolato Cerchi informazioni affidabili sulle elezioni? Non fidarti dell’intelligenza artificialedescrivendo in dettaglio come cinque principali modelli di intelligenza artificiale – Claude di Anthropic, Gemini di Google, GPT-4 di OpenAI, Llama 2 di Meta e Mixtral di Mistral – hanno risposto alle domande che gli elettori potrebbero porre.

La metà delle risposte dei chatbot AI alle domande relative alle elezioni sono state valutate come imprecise dalla maggior parte degli esperti, con più di un terzo delle risposte alle informazioni relative alle elezioni classificate come dannose o incomplete e un ulteriore 13% giudicato parziale.

Allo stesso modo, a giugno, il Reuters Institute ha condotto un’analisi su come diversi popolari chatbot, tra cui ChatGPT e la startup di intelligenza artificiale generativa Perplexity, hanno risposto alle domande sulle elezioni del Parlamento europeo. Ha rilevato “casi di informazioni parzialmente corrette o false e fuorvianti”.

“Queste inesattezze evidenziano la necessità di cautela quando ci si rivolge ai chatbot per domande relative alle elezioni”, osserva l’analisi.

Uno di loro, Perplexity, ha deciso di affrontare il processo costruendo il proprio Centro informazioni elettorali, aggiungendo di aver collaborato con The Associated Press (AP) e Democracy Works per garantire l’affidabilità delle informazioni.

Interferenze straniere amplificate dall’intelligenza artificiale

L’Ufficio del Direttore dell’intelligence nazionale (ODNI) ha rilasciato una dichiarazione a settembre evidenziando come gli attori stranieri stiano sfruttando l’intelligenza artificiale per interferire con le elezioni statunitensi.

Secondo il rapporto, Russia e Iran stanno utilizzando l’intelligenza artificiale generativa per potenziare le loro operazioni di influenza, creando contenuti generati dall’intelligenza artificiale da e su importanti figure statunitensi per seminare discordia.

“Dei tre attori principali che stiamo monitorando, la Russia ha generato il maggior numero di contenuti IA legati alle elezioni e lo ha fatto con tutti e quattro i mezzi (testo, immagini, audio e video), sebbene il grado in cui questi contenuti sono pubblicati e online la diffusione varia”, afferma la nota.

L’ODNI ha osservato che i deepfake e altre forme di disinformazione generate dall’intelligenza artificiale erano coerenti con “gli sforzi più ampi della Russia per promuovere la candidatura dell’ex presidente e denigrare il vicepresidente e il Partito democratico, anche attraverso narrazioni di cospirazione”, mentre ciò cercava di amplificare questioni controverse come come immigrazione.

Questa è la prima scelta dell’intelligenza artificiale. Questo è ciò che significa

Illustrazione fotografica di Newsweek/Getty Images

“La settimana scorsa, ad esempio, abbiamo assistito a una campagna di influenza russa che cercava di ingannare la gente facendole credere che gli immigrati haitiani stessero esprimendo più voti illegali in Georgia, e che sta attingendo al sentimento anti-immigrati, che sta attingendo alle profonde preoccupazioni sulle frodi. elezioni”, ha detto Givens.

“Niente di tutto questo era reale, ma ovviamente gli attori stranieri sanno come sfruttare queste faglie nella nostra società, ed è quello di cui stanno cercando di trarre vantaggio”, ha aggiunto.

Sforzi per combattere la disinformazione guidata dall’intelligenza artificiale

I funzionari elettorali stanno affrontando in modo proattivo queste sfide. “La cosa più importante è che i funzionari elettorali hanno lavorato duro per promuovere informazioni affidabili di cui gli elettori possano fidarsi”, ha detto Givens.

“Quando sono circolati video o immagini deepfake, come quello di due attori stranieri russi la scorsa settimana, i Segretari di Stato competenti sono immediatamente intervenuti per sfatarli e convincere le persone della verità e rassicurarle sull’integrità del processo elettorale, “ha aggiunto…

Le campagne di “prebunking” stanno guadagnando terreno anche come metodo per vaccinare gli elettori contro la disinformazione, generata dall’intelligenza artificiale o meno. Queste iniziative espongono le persone a deboli dosi di disinformazione combinata con spiegazioni, aiutandole a sviluppare “anticorpi mentali” per riconoscere e difendersi dalle falsità.

“Tuttavia, è importante notare che l’alfabetizzazione digitale è complessa e che gli interventi di vaccinazione da soli non offrono una soluzione miracolosa a tutte le sfide legate alla navigazione nel panorama dell’informazione post-verità”, ha affermato il professore della Kennedy School di Harvard. Revisione della disinformazione.

Risposte normative e responsabilità delle Big Tech

Nell’ottobre 2023, l’ordine esecutivo sull’intelligenza artificiale dell’amministrazione Biden includeva una disposizione che incoraggiava i funzionari governativi a sviluppare tecniche di autenticazione per aumentare la fiducia del pubblico nelle loro comunicazioni.

A questo proposito, lo scorso anno il CDT ha anche presentato commenti sollecitando la Commissione elettorale federale ad affrontare l’uso di immagini fuorvianti e deepfake da parte delle campagne politiche.

“Abbiamo bisogno di una maggiore alfabetizzazione affinché gli utenti comprendano i limiti di questi strumenti”, ha affermato Givens. “Ma spetta anche alle aziende essere realistiche e oneste su ciò che i loro strumenti possono e non possono fare.”

“Le aziende più responsabili fanno sì che, quando è essenziale che l’informazione sia accurata e tempestiva, indirizzino effettivamente le persone a fonti di informazione autorevoli, come il sito dell’Associazione nazionale dei sottosegretari di Stato o altri luoghi. Ma è davvero importante che le impalcature e la segnaletica è predisposta in modo che gli utenti possano ottenere informazioni accurate di cui possono fidarsi.”

Campagne politiche assistite dall’intelligenza artificiale

Secondo una recente ricerca pubblicata ad agosto, gli americani sono preoccupati per l’uso dell’intelligenza artificiale per manipolare le elezioni. Lo studio, che ha intervistato più di 7.600 residenti negli Stati Uniti, ha rilevato che, sebbene gli elettori siano generalmente diffidenti nei confronti dell’intelligenza artificiale in relazione alle campagne politiche, sono particolarmente allarmati dal suo potenziale di inganno.

Tuttavia, questo allarme era di natura partigiana. I ricercatori hanno scoperto che i partiti politici avrebbero poche conseguenze da parte dei loro sostenitori se utilizzassero l’intelligenza artificiale in modo ingannevole nelle loro campagne; Quando ai partecipanti allo studio è stato presentato lo scenario secondo cui il loro partito preferito stava utilizzando l’intelligenza artificiale per scopi ingannevoli come deepfake o disinformazione automatizzata, non hanno ridotto in modo significativo il loro sostegno a quel partito.

La ricerca, condotta da scienziati dell’Università di Bamberga e della LMU di Monaco, in Germania, e dell’Università Nazionale di Taiwan, suggerisce che gli elettori non si oppongono a tutti gli usi dell’intelligenza artificiale nelle campagne elettorali.

Sebbene i partecipanti si siano opposti alle pratiche ingannevoli, hanno mostrato una maggiore accettazione dell’utilizzo dell’intelligenza artificiale per le operazioni di base della campagna, come la generazione di contenuti. Ciò indica che gli elettori possono distinguere tra applicazioni legittime e preoccupanti della tecnologia.

Forse la scoperta più interessante emersa dallo studio è il modo in cui l’esposizione a pratiche ingannevoli delle campagne di IA ha influenzato gli atteggiamenti più ampi nei confronti della tecnologia. Quando i partecipanti hanno appreso che l’intelligenza artificiale viene utilizzata per creare contenuti politici fuorvianti, sono diventati molto più propensi a sostenere una rigorosa regolamentazione dell’intelligenza artificiale e hanno persino sostenuto la sospensione totale dello sviluppo dell’intelligenza artificiale.

Fonte