Sistema di Credito Sociale in Trentino: tra bisogno di sicurezza e rischio di discriminazione
Il sistema di credito sociale in fase di sperimentazione in Cina può essere un modello futuro anche per l'autonomia in Trentino? Alessio Gerola risponde a Stefano Fait: "Un’autonomia in cui i cittadini stessi non siano realmente autonomi non può dirsi davvero tale"

TRENTO. Un modello anche per l'autonomia trentina. E' il sistema di credito sociale in fase di sviluppo in Cina. Un sistema inteso a valutare attendibilità, affidabilità e integrità di ciascun cittadino in un’economia e società che stanno transitando dal denaro ai dati come loro architrave e in cui le aziende tecnologiche sono sempre più coinvolte nel settore finanziario e nelle interazioni tra i cittadini in generale.
Il sistema coi migliori “big data”, usati meglio, è quello destinato a vincere nell'economia del futuro e la Cina ha deciso di rivoluzionare il contratto sociale che lega i cittadini tra loro e allo stato.
E in risposta all'articolo pubblicato nel suo blog da Stefano Fait (Il futuro dell'autonomia trentina passa dalla Cina? Il sistema di credito sociale: un algoritmo che 'giudica' le persone, Il Dolomiti, 3 aprile 2018), anticipatore sociale e analista di macrotendenze. Consulente strategico, responsabile della comunicazione e social media tra Trento e Tokyo, interviene Alessio Gerola, laurea triennale in filosofia a Trento e attualmente studente di filosofia della tecnologia all’Università di Twente in Olanda, dove si occupa di antropologia filosofica, etica e tecnologia.
Secondo i suoi sostenitori, il Sistema di Credito Sociale al momento in fase di sperimentazione in Cina, e che diventerebbe obbligatorio dal 2020, dovrebbe garantire maggiore coesione sociale e fiducia nel prossimo.
I dettagli del suo funzionamento sono ancora pochi, ma l’idea di fondo riguarda l’elaborazione di tutta una serie di parametri economici, legali, sociali e politici tramite algoritmi di analisi di “big data”, per distillare un punteggio che sia rappresentativo dell’affidabilità di un cittadino privato, una compagnia o un’agenzia governativa.
Il tracciamento automatizzato della reputazione economica e sociale consentirebbe così di premiare con agevolazioni economiche ed amministrative chi rispetta la legge, penalizzando invece i “furbetti” che la infrangono.
Qualche giorno fa Stefano Fait ha proposto di iniziare a discutere l’adozione del Sistema di Credito Sociale in Trentino. A suo modo di vedere, l’aura da distopia orwelliana con cui è dipinto dagli “occidentali”, cioè come l’automatizzazione di un apparato di sorveglianza sistematica che premi l’allineamento ai valori del governo e punisca i trasgressori, soffocando qualunque dissenso, non riconoscerebbe la bontà di fondo dell’idea.
Richiamandosi a un immaginario rurale, la piccola comunità locale dove tutti si conoscono e si fidano l’uno dell’altro, Fait definisce questo sistema come una specie di “karma istantaneo digitalizzato”, che può fornire “l'unica vera misura fondamentale e universale per creare quel rapporto fiduciario che sottostà al contratto sociale di una qualunque comunità”.
Se adeguatamente implementato esso infatti dovrebbe garantire maggior sicurezza, trasparenza e fiducia.
Tuttavia siamo davvero sicuri che questo idillio pastorale neo-confuciano 4.0 sia ciò che di più desiderabile la nostra autonomia necessiti? Dato che i potenziali benefici sono stati ampiamente discussi da Fait nel suo commento, qui mi vorrei concentrare di più sui rischi, nonostante l’involontario rischio (perdonate il gioco di parole) di sembrare catastrofista.
Iniziamo da una dinamica di discorso molto comune quando si tratta di persuadere della bontà delle tecnologie emergenti, come i big data. Per rassicurare gli scettici che non si tratta di nulla di radicalmente nuovo, si ricorre ad esempi correnti o passati di fenomeni ritenuti simili. Fait ci ricorda così che l’economia digitale ci ha già abituati ad essere sistematicamente catalogati, valutati e venduti sotto forma di “petrolio digitale”, quella mole di informazione che produciamo tramite le nostre attività online e che permette a colossi come Facebook di guadagnare grazie alla vendita ad agenzie pubblicitarie interessate a raggiungere una certa categoria di utenti. Similmente, piattaforme come Amazon, Uber, Airbnb funzionano grazie al fatto che gli utenti valutano le prestazioni fornite.
Ora, giustificare la realtà per il semplice fatto che è la realtà si chiama fallacia naturalistica: l’esistenza concreta di una certa cosa, ad esempio la guerra, non significa che sia automaticamente giusto o desiderabile che quella cosa esista. Tant’è che il sistema di valutazione imposto sugli autisti di Uber sembra risultare in una forma di cortesia forzata e costretta.
Questo evidenzia il primo rischio legato a questo tipo di tecnologia: una forma di condizionamento al conformismo. Un sistema automatizzato di punizioni e ricompense, e la conseguente pressione sociale derivata dal fatto che il mio punteggio è influenzato da quello di amici e istituzioni che frequento, imporrebbe un determinato comportamento non tanto per un’elevazione spirituale ai valori comunitari, a meno che non già presenti (nel qual caso verrebbe meno il bisogno di questo sistema), ma per un calcolo di costi e benefici.
Le persone non si comporterebbero necessariamente bene perché pensano sia giusto, ma per ottenere certi privilegi o per evitare penalità, sottomettendosi alla dittatura della maggioranza, o di chiunque abbia definito l’algoritmo. Questo ne rivela la sua natura come strumento di controllo socioeconomico, motivo per cui il Governo Cinese vuole adottarlo, piuttosto che come strumento di crescita morale.
Il secondo rischio implicito in ogni tentativo di assegnare un valore numerico a aspetti qualitativi come la reputazione e la fiducia nel prossimo, è che questi vengano deprivati del loro valore personale. Il tessuto comunitario non è basato sulla quantificazione di certi parametri, ma sullo scambio reciproco e la costruzione di valori e pratiche di cooperazione.
La reputazione pubblica non rispecchia necessariamente se e quanto ci si possa fidare qualcuno, a maggior ragione se la reputazione venga ridotta ad un singolo punteggio. Fait sostiene che un tale sistema permetterebbe di capire di chi fidarsi in una realtà urbana piena di sconosciuti, dato che con “il passaparola e i cugini di amici le delusioni non si contano”. Dunque la proposta sarebbe di promuovere la coesione comunitaria non costruendo legami concreti di fiducia reciproca, ma valutando ad una rapida occhiata se il punteggio del nostro interlocutore superi una certa soglia. Un compromesso dettato dai ritmi lavorativi del Ventunesimo secolo, ma viene da chiedersi se sia un compromesso veramente accettabile.
Inoltre, la distinzione tra atteggiamento privato e pubblico, esemplificato in oriente dai concetti giapponesi di honne e tatemae, è sottoposto a dinamiche differenti in culture diverse. Per cui se in Cina l’ideale pubblico di armonia sociale è culturalmente sentito come più importante del dissenso individuale, cosa che può giustificare dinamiche come quelle descritte sopra, da noi si tende a valutare maggiormente un atteggiamento più esplicito e onesto verso le opinioni personali.
Un terzo fattore di rischio è così la frammentazione del tessuto sociale, piuttosto che la sua armonizzazione. Giustamente Fait nota come la nostra società risenta già di dinamiche di stratificazione e segregazione sociale, ad esempio per criteri censitari o d’istruzione. Pare dunque strano che non noti come l’implementazione di un sistema di credito sociale possa non solo essere inefficace a combatterle, ma addirittura esacerbarle, rafforzando vecchie divisioni e creandone di nuove. Economicamente, i ceti più benestanti incontreranno meno problemi a rispettare certi termini fiscali, mentre chi si trova in difficoltà potrebbe venire ulteriormente ostacolato nei suoi tentativi di raggiungere una condizione di maggior benessere, trovandosi sbarrata la strada a sussidi e agevolazioni (naturalmente si potrebbe pensare di calibrare il sistema in modo tale che il punteggio bilanci l’insolvenza economica con il rispetto generale della legge in altri ambiti). Socialmente e politicamente, anche forme positive di dissenso e protesta potrebbero venire scoraggiate attraverso la stigmatizzazione sociale e l’ostracismo, arrivando finanche a forme automatizzate di diffamazione pubblica. Piuttosto che creare una reale coesione sociale, si verrebbe a creare una società di guardiani e vigili.
Nel mito della società trasparente cui Fait allude infatti, la segretezza sembra automaticamente sinonimo di criminalità. Una preoccupazione per la privacy diventa un motivo per nascondere qualcosa (di necessariamente losco). Ma d’altro canto, se non avessi davvero nulla da nascondere perché dovrei essere sorvegliato innanzitutto? Controllo appunto, e coercizione. Non ti fidi, non c’è tempo per conoscersi, è più rapido avere un punteggio da controllare. Retorica a parte, un certo grado di privacy è il fondamento imprescindibile dell’autonomia personale, come Fait stesso riconosce poco dopo, reclamando “il rispetto della sfera strettamente privata”, cosa di cui la Cina non sembra invece preoccuparsi.
Il problema della trasparenza si avverte specialmente quando si nota l’asimmetria di potere tra comuni cittadini e compagnie o governi che dovessero entrare in possesso di dati sensibili. Un cittadino è molto più vulnerabile ad abusi di potere, al rischio di ritorsione pubblica e diffamazione se falsamente accusato, che non qualcuno in una posizione più elevata. Per questo se vogliamo parlare di trasparenza, sono due gli ambiti di cui dovremmo preoccuparci.
In primo luogo, la trasparenza del funzionamento e della gestione del sistema di credito. Gli algoritmi sono progettati da esseri umani (o da altri algoritmi) che vi implementano, consapevolmente o meno, certi valori e bias che possono andare a penalizzare determinate categorie.
Chi avrebbe la legittimità di decidere il modo in cui questo sistema debba essere progettato? Chi sarebbe responsabile per eventuali discriminazioni sistematiche esercitate dal sistema, e quanto facilmente sarebbe possibile accedere al sistema e correggerle, specialmente se a sfavore di gruppi già marginalizzati dalla sfera pubblica? E’ fondamentale trovare risposte che siano in linea con i valori politici e sociali della nostra autonomia, non da ultimo per il fatto che la raccolta, l’aggregazione e l’elaborazione dei dati sono sempre a potenziale rischio di manipolazione.
In secondo luogo infatti è cruciale garantire la trasparenza delle attività di aziende, corporazioni e governi, rendendole più responsabili di fronte alla legge. Un sistema di reputazione sociale (magari basato sulla tecnologia blockchain?) potrebbe allora in effetti cercare di garantirla. Chi insomma ha il potere di esercitare maggiore influenza sulla vita dei cittadini e potrebbe avere il maggiore interesse a manipolare i propri dati, dovrebbe per primo aderire ad un ideale di maggior trasparenza nella loro gestione.
Per concludere, l’idea di digitalizzare la fiducia automatizzando la reputazione sociale appare più come uno strumento di controllo e coercizione sociale che non come un sistema per promuovere i valori civici privati degli attori sociali. L’idea di applicarlo soprattutto a organi istituzionali e aziende rimane proprio per questo molto allettante, come forma di tutela nei confronti di chi è più soggetto ad eventuali abusi.
Tuttavia l’idea stessa e la sua implementazione presentano una serie di aspetti problematici, sia tecnici che politici, che devono essere discussi e risolti per evitare che esso si trasformi da sistema di supporto dei rapporti socioeconomici ad un sistema di sorveglianza indiscriminata e discriminazione sociale. In altre parole, l’autonomia che tanto ci sta a cuore non sarebbe davvero tale se i suoi cittadini innanzitutto non fossero realmente autonomi.