
L’IA opta per la corrente dominante, secondo una ricerca del Politecnico di Zurigo

Un esperimento condotto al Politecnico federale di Zurigo (ETHZ) mostra che ChatGPT vota in modo diverso dagli esseri umani. Joshua Yang, informatico dell’ETH, spiega a Swissinfo come l’intelligenza artificiale cambierà comunque la democrazia.
Se ChatGPT potesse votare, il modello linguistico sceglierebbe probabilmente partiti ben noti. È quanto emerge da uno studio scientificoCollegamento esterno condotto dal Politecnico federale di Zurigo (ETHZ). Secondo questa ricerca, ChatGPT prende decisioni più razionali rispetto agli esseri umani.
Come ha fatto il team di scienze sociali computazionali dell’ETHZ a giungere a questo risultato? I grandi modelli linguistici sono programmati per rispondere in modo evasivo alle domande politiche.
“Quando abbiamo chiesto a ChatGPT se bisognasse votare per Donald Trump o Kamala Harris, l’IA ha dichiarato di essere neutrale e non ha fornito alcuna indicazione”, spiega Joshua Yang, informatico dell’ETHZ.
ChatGPT, LLaMa e 180 persone

Il gruppo di ricerca non ha quindi interrogato i modelli di intelligenza artificiale su decisioni politiche importanti, ma ha chiesto loro un parere su progetti urbanistici locali, apparentemente apolitici. I modelli utilizzati erano ChatGPT-4 e LLaMA-2.
Tra i progetti riguardanti la città di Zurigo figuravano, ad esempio, una Langstrasse senza automobili, un festival multiculturale sulla Sechseläutenplatz o una festa per bambini nel Leutschenpark. Quale dei 24 progetti sottoposti sceglierebbe l’IA per migliorare la qualità della vita delle abitanti e degli abitanti di Zurigo?
Gli scienziati e le scienziate hanno poi confrontato i risultati dei modelli di IA con i pareri espressi da 180 partecipanti umani, nell’ambito di un esperimento analogo basato sugli stessi progetti.
Le persone e i modelli di intelligenza artificiale hanno effettuato le loro scelte in sessioni con configurazioni e procedure di voto differenti. A volte attribuivano dei punti ai progetti. Altre volte, potevano selezionare quanti progetti desideravano. Sono stati inoltre condotti test utilizzando il sistema di voto preferenzialeCollegamento esterno (ranked-choice voting).
I risultati di questo esperimento possono essere applicati principalmente alle decisioni di bilancio partecipativo e alle elezioni con più vincitori, come quelle basate sul sistema proporzionale, ovvero quando i partiti inviano un numero di rappresentanti in Parlamento proporzionale alla percentuale di voti ottenuti.
Al contrario, la portata dello studio dell’ETHZ è limitata per quanto riguarda le elezioni con un solo vincitore, come l’elezione presidenziale statunitense.
I modelli di IA mostrano un “comportamento più uniforme”
In generale, le differenze tra gli esseri umani e l’intelligenza artificiale erano significative, anche quando all’IA veniva chiesto di assumere il ruolo di un essere umano.
I modelli di IA sceglievano spesso lo stesso numero di progetti e mostravano un “comportamento più uniforme” rispetto agli esseri umani, rileva lo studio.

ChatGPT ha optato quasi sistematicamente per quattro o cinque progetti, mentre i 180 partecipanti umani hanno mostrato interesse per una gamma di progetti decisamente più diversificata.
Secondo lo studio, questo risultato conferma che “i campioni sintetici simulati dall’IA presentano un bias WEIRD (occidentale, istruito, industrializzato, ricco, democratico)” e “spesso non mostrano alcuna varianza (o diversità) significativa nei loro giudizi”.
Inoltre, l’IA si è lasciata influenzare nell’elaborazione delle sue decisioni dall’ordine in cui i progetti apparivano sulla lista. Questo evidenzia i limiti delle sue capacità decisionali: immaginate se le persone votassero per un partito solo perché si trova in fondo anziché in cima alla scheda elettorale.
“Un approccio centrato sull’essere umano” è essenziale
I modelli di intelligenza artificiale tendono a scegliere progetti poco costosi. Lo studio sottolinea che gli elettori umani spesso non sono consapevoli dei costi.
Le ricerche del team del Politecnico federale di Zurigo (ETHZ) fanno riferimento alle idee di César Hidalgo sui gemelli digitali guidati dall’IA destinati a sostituire le politiche e i politici. Si ispirano anche alla proposta di due economisti di assegnare a ogni persona con diritto di voto un gemello digitale.
Lo studio presentato da Joshua Yang durante la Conference on AI, Ethics, and Society a San José, in California, invita alla prudenza. Un “approccio centrato sull’essere umano” è “essenziale” affinché l’IA supporti, e non comprometta, “l’intelligenza collettiva che emerge dalla diversità delle preferenze umane nella società”.
L’IA dovrebbe quindi essere utilizzata “in un contesto Human in the loop“. Un agente IA potrebbe così migliorare il processo decisionale umano, ad esempio elaborando, riassumendo o spiegando conoscenze di base su un determinato argomento”.
Come regolamentare l’uso di dati personali sensibili?
“Il nostro obiettivo era capire come i modelli linguistici influenzano la democrazia così come la conosciamo”, spiega Joshua Yang. “Già oggi, molte persone pongono le loro domande a ChatGPT. Il modello linguistico le informa, influenzando così le loro decisioni politiche”.
La questione delicata resta quella del trattamento dei dati personali. “Quali informazioni forniamo a un’IA quando le chiediamo di adottare il punto di vista di una persona?”. È possibile basarsi su dati demografici sensibili come il colore della pelle e la religione, o persino sulla trascrizione di una lunga conversazione con la persona interessata.
Si possono anche creare dei personasCollegamento esterno, degli utenti ideali, sulla base di un sondaggio d’opinione, come fa Smartvote. Nell’esperimento, il team del Politecnico federale di Zurigo ha scelto questo metodo. Secondo l’informatico, potrebbe non essere meno efficace. Egli auspica l’elaborazione di linee guida etiche e giuridiche chiare, nonché un dibattito pubblico su come tracciare il confine tra funzionalità e privacy.
La democrazia svizzera, un “banco di prova ideale” per l’IA
Sebbene lo studio metta piuttosto l’accento sugli aspetti critici dei modelli di IA, Joshua Yang si mostra comunque entusiasta nei loro confronti: “Sono cautamente ottimista riguardo al potenziale dell’IA per la democrazia”. L’IA potrebbe aiutare le persone a prendere decisioni più frequenti e consapevoli, senza però privarle della loro capacità di agire.
La Svizzera, con le sue numerose votazioni popolari, rappresenta secondo il ricercatore del politecnico “un banco di prova ideale” per le tecnologie di IA. Questi modelli sarebbero più efficaci nell’aiutare a prendere decisioni razionali durante le votazioni popolari rispetto alle elezioni, che suscitano emozioni più forti. Potrebbero inoltre contribuire ad aumentare la partecipazione elettorale su questioni locali.
Si potrebbe immaginare un opuscolo di votazione digitale che le cittadine e i cittadini svizzeri non si limiterebbero a leggere, ma che potrebbero interrogare. Questo potrebbe motivare coloro che si astengono dal voto per mancanza di conoscenze sufficienti.
“Se un agente IA specifico è progettato con tutti i dati pertinenti per un determinato compito, il rischio che trasmetta informazioni errate risulta nettamente inferiore. Gli agenti IA ‘allucinano’ quando non hanno accesso alla risposta corretta”, sottolinea l’informatico.
I grandi modelli linguistici come ChatGPT non sono tuttavia adatti a questo compito, poiché si basano sia su dati pertinenti sia su informazioni fuorvianti.
A livello globale, Joshua Yang — che partecipa a progetti di democrazia locale in Svizzera e a Taiwan — vede nell’IA un’opportunità per dare nuovo slancio agli strumenti di democrazia diretta (e deliberativa). In una prima fase, saranno politiche, politici e alcuni gruppi a fare ricorso ad agenti IA per analizzare i dibattiti e formulare argomentazioni, compromessi e proposte d’azione.
Poco a poco, gli agenti IA potrebbero quindi diventare parte integrante delle istituzioni.
Articolo a cura di Mark Livingston
Traduzione con il supporto dell’IA/mar

In conformità con gli standard di JTI
Altri sviluppi: SWI swissinfo.ch certificato dalla Journalism Trust Initiative
Potete trovare una panoramica delle discussioni in corso con i nostri giornalisti qui.
Se volete iniziare una discussione su un argomento sollevato in questo articolo o volete segnalare errori fattuali, inviateci un'e-mail all'indirizzo [email protected].