L'Intelligenza Artificiale è più convincente degli essere umani nei dibattiti: lo dice la scienza, anche Fbk tra i protagonisti della ricerca
La sperimentazione, basata sulla simulazione di 'gare di dibattito', prova che l'intelligenza artificiale è in grado di generare contenuti altamente persuasivi. Riccardo Gallotti: "Anche quando disponeva solo di informazioni personali minime, l'IA ha dimostrato capacità persuasive superiori rispetto agli esseri umani: la Fondazione implementa misure per contrastarne gli effetti"

TRENTO. È possibile che l'intelligenza artificiale possa convincere una persona meglio di un altro essere umano? A quanto pare sì: dopo due anni di sperimentazioni, i primi risultati scientifici confermano che Large Language Models come ChatGPT, Gemini o Claude sono in grado di generare contenuti altamente persuasivi.
Mentre gli studi condotti finora hanno infatti preso in considerazione solo messaggi “singoli” e non inseriti in una vera conversazione, per la prima volta una ricerca - condotta dalla Scuola Politecnica Federale di Losanna, l’Università di Princeton e dal Complex Human Behaviour Lab del Centro Digital Society della Fondazione Bruno Kessler con il suo responsabile Riccardo Gallotti - ha analizzato la persuasività conversazionale, ciò per cui i chatbot sono ottimizzati e normalmente utilizzati.
La sperimentazione, che è valsa ai ricercatori una pubblicazione sulla prestigiosa rivista internazionale "Nature Human Behaviour", si basa sulla simulazione di “gare di dibattito”: una pratica diffusa negli Stati Uniti in cui singoli o squadre di studenti si sfidano ad argomentare in modo persuasivo temi assegnati casualmente.
Entrando nei dettagli dell'esperimento, ad essere ingaggiati sono stati 900 partecipanti statunitensi attraverso la piattaforma di crowdsourcing per la ricerca accademica “Prolific”: ogni partecipante ha ricevuto incentivi finanziari per portare avanti i dibattiti ed è stato assegnato a una specifica discussione con l'intelligenza artificiale (un chatbot basato su GPT-4, ndr) in versione personalizzata e non, o con una controparte umana, per un totale di tre brevi scambi della durata di circa 10 minuti.
Ad essere specificato è che tutti i partecipanti erano consapevoli di trovarsi in un ambiente sperimentale controllato e che gli argomenti di discussione sono stati estratti in modo casuale tra 30 affermazioni che riguardano questioni politiche e sociali salienti degli Stati Uniti, classificate in tre diversi livelli di “forza”.
Venendo ai risultati, come spiega Riccardo Gallotti di Fbk, quello principale rivela che Gpt-4 anche quando disponeva solo di informazioni personali minime sui partecipanti, ha dimostrato capacità persuasive superiori rispetto agli esseri umani: "Nei casi in cui è emersa una chiara differenza di efficacia persuasiva tra i due, il sistema di intelligenza artificiale è risultato più convincente nel 64,4 per cento dei casi”.
Un ulteriore risultato riguarda la percezione dell’identità dell’avversario: i partecipanti sono riusciti a riconoscere che stavano interagendo con un chatbot in tre casi su quattro, mentre sono stati meno precisi nell’identificare interlocutori umani, con un tasso di successo pari al caso.
Interessante anche l’effetto psicologico: quando i partecipanti credevano di parlare con un’IA, erano più propensi a cambiare idea o a concordare con l’avversario rispetto a quando pensavano di interagire con un essere umano. Tuttavia, viene precisato dai ricercatori, non è ancora chiaro se la differenza nel cambiamento di accordo sia motivata dalle convinzioni dei partecipanti sulla natura dell’avversario o se, al contrario, tali convinzioni siano causate dal cambiamento di opinione.
In ogni caso, viene messo in evidenza, "la sola percezione dell’avversario non è sufficiente a spiegare i risultati", che sembrano essere legati soprattutto alle capacità dell’IA di generare argomentazioni più efficaci.
“Come gruppo di lavoro, sosteniamo che le piattaforme online e i social media dovrebbero prendere seriamente in considerazione tali minacce ed estendere i loro sforzi per implementare misure che contrastino la diffusione della persuasione guidata dall’intelligenza artificiale. Inoltre – continua Gallotti – riteniamo che un approccio promettente per contrastare le campagne di disinformazione di massa potrebbe essere attivato dagli stessi large language models che generano contro-narrazioni altrettanto personalizzate per educare gli astanti potenzialmente vulnerabili ai post ingannevoli. Come Fbk stiamo lavorando in questo senso con il progetto AI4TRUST e i primi sforzi in questa direzione sono già visibili, con risultati promettenti nella riduzione delle credenze cospiratorie grazie ai dialoghi con l’IA”.












