In una nuova causa federale, la mamma della Florida Megan Garcia cerca la responsabilità per la tecnologia e i desideri dell’intelligenza artificiale dannosa avvisare gli altri genitori.
La causa, recentemente intentata contro il produttore di app Character.AI e i suoi fondatori, sostiene che la società ha consapevolmente progettato, gestito e commercializzato un chatbot AI predatore per bambini, causando la morte del figlio quattordicenne di Megan Garcia all’inizio di quest’anno.
Il figlio di Garcia si è suicidato a febbraio dopo mesi di interazioni abusive con un chatbot di Character.AI. La denuncia di Garcia include prove che il chatbot si atteggiava a terapista autorizzato, incoraggiava attivamente l’ideazione suicidaria e si impegnava in conversazioni altamente sessualizzate che costituirebbero un abuso se avviate da un essere umano adulto.
Garcia accusa le aziende di aver causato la morte di suo figlio, commercializzando consapevolmente un prodotto pericoloso e impegnandosi in pratiche commerciali ingannevoli. Dobbiamo chiederci come si sarebbe potuta evitare questa tragedia e, in primo luogo, perché abbiamo permesso alla Silicon Valley di sperimentare sui nostri figli.
Oggi aziende come OpenAI, Meta, Microsoft, Amazon, Character.AI e Google operano in una zona esente da responsabilità. Questa mancanza di responsabilità significa che queste aziende hanno pochi incentivi a testare a fondo i loro prodotti per individuare eventuali danni prima di rilasciarli al pubblico. Senza conseguenze legali, possono trattare la società come un banco di prova per le loro ultime innovazioni, una pratica particolarmente grave quando si tratta dei membri più vulnerabili della nostra società: i nostri figli. Questo vuoto di responsabilità ha consentito una sperimentazione dilagante con la nostra democrazia, salute mentale e privacy.
Fortunatamente, abbiamo dimostrato che possiamo ritenere le aziende responsabili dei danni che causano. Nel 1972, il tredicenne Richard Grimshaw rimase gravemente ustionato quando il serbatoio del gas di una Ford Pinto difettosa prese fuoco. La causa di Grimshaw contro la Ford Motor Company si è conclusa con il più grande risarcimento per responsabilità sul prodotto mai registrato nella storia americana fino a quel momento, alterando per sempre l’approccio al rischio dell’industria automobilistica. La tragedia di Grimshaw ha segnato una pietra miliare nella sicurezza dei consumatori americani.
Oggi, la responsabilità del prodotto è la struttura invisibile che sostiene la nostra vita di consumatori e cittadini, ed è ciò che protegge i nostri figli dai pericoli. La responsabilità aiuta a “vedere” e a prevenire danni che nemmeno i genitori più attenti potrebbero prevedere. La responsabilità è il motivo per cui possiamo acquistare giocattoli per i nostri bambini in negozio senza preoccuparci dei pericoli nascosti che si nascondono all’interno dell’imballaggio di plastica, o confidare che il seggiolino per auto di un bambino possa effettivamente aiutare a prevenire lesioni in caso di incidente.
Se la negligenza di un’azienda fa causare danni, che si tratti di un airbag difettoso, di cavi esposti o di danni a un bambino, disponiamo di risorse legali per chiedere risarcimento e giustizia. La minaccia di azioni legali costringe le aziende a progettare e realizzare prodotti più sicuri fin dall’inizio.
Oggi, mentre le famiglie americane si confrontano con nuove e potenti tecnologie, l’industria tecnologica sta spingendo per rimanere esente da responsabilità. Sono aiutati da una magistratura che ha favorito la loro interpretazione espansiva della Sezione 230 del Communications Decency Act e il suo utilizzo come arma del Primo Emendamento. Quando si tratta di responsabilità da prodotto, l’industria tecnologica ci ha guidato all’indietro nella storia, con il “caveat emptor” (o “acquirente attento”) che ora domina le nostre vite moderne e digitali.
La storia di García e di suo figlio è un esempio devastante dei danni che i sistemi di intelligenza artificiale possono causare a una famiglia. E mentre le aziende fanno grandi promesse nei comunicati stampa sulle future funzionalità di sicurezza, in definitiva quei comunicati stampa servono a proteggere la loro reputazione, non quella dei loro utenti.
Prima che questi danni accelerino e colpiscano più vite, il Congresso e le legislature statali devono agire per chiarire ciò che le aziende tecnologiche hanno fatto un dovere chiaro esercitare una ragionevole cura nella progettazione dei propri prodotti. Questo dovere costituisce il nucleo della responsabilità legale rispettata da tutte le altre industrie americane di successo.
Applicando alle aziende tecnologiche le stesse leggi che già si applicano ad altri produttori, non stiamo soffocando l’innovazione. Stiamo canalizzando il tipo di innovazione che ha portato le aziende americane a diventare leader del settore per decenni e consente alle famiglie di sentirsi sicure nell’usare i prodotti americani. Un quadro di responsabilità favorirà la fiducia del pubblico, che è essenziale per l’adozione diffusa e il successo delle tecnologie di intelligenza artificiale.
Abbiamo una scelta. Possiamo consentire all’intelligenza artificiale di diventare un’altra area in cui le aziende tecnologiche operano impunemente e danno priorità ai margini di profitto rispetto alle persone, compresi i bambini americani. Oppure possiamo imparare dalla storia e stabilire un quadro di responsabilità fin dall’inizio. La responsabilità ha protetto i consumatori (e le famiglie) in innumerevoli modi nel corso dell’era moderna. È giunto il momento di estendere tale protezione alla frontiera dell’intelligenza artificiale.
Casey Mock è direttore politico presso il Center for Humane Technology.
Le opinioni espresse in questo articolo sono quelle dell’autore.