Intelligenza artificiale e singolarità: la rivoluzione futura

Intelligenza artificiale e singolarità: la rivoluzione futura

La rotta europea verso l’intelligenza artificiale parte dall’AI Act che, approvato in via definitiva, necessita di essere rivisto nel tempo per adeguare la regolamentazione alla velocità di diffusione delle piattaforme e dei sistemi generativi. Questi non solo aumentano la disintermediazione ma si avvicinano sempre di più a quella che viene definita la super intelligenza, o meglio, la singolarità tecnologica. Con i “futures studies”: si analizza il presente con uno “sguardo complesso” il cui obiettivo è l’analisi sistematica del futuro, per provare anticipare i grandi cambiamenti. Prevedere l’impatto sulla società per prendere decisioni concrete e strategiche, per essere pronti a qualsiasi futuro possibile. Pensare che non esiste un unico futuro ha un suo fascino epistemologico: significa accrescere la competenza umana di studio e previsione per plasmare quel futuro, per renderlo più sicuro e sostenibile. Studiare i trend attuali e le forze del cambiamento, capire come queste si intersecano per rallentare o accelerare i cambiamenti, cogliere i segnali deboli che potrebbero diventare mainstream, prevedere eventi che potrebbero accadere in modo inaspettato. Ed in qualche modo è proprio l’approccio basato sul rischio, quello di cui parliamo, che è il principio al quale si è ispirato il legislatore europeo. Si impongono ai vari sistemi di intelligenza artificiale dei vincoli equilibrati e proporzionati, ai pericoli che ogni singolo sistema può, e potrà, rappresentare per la società. Quei sistemi che presentano solo un rischio moderato saranno soggetti a obblighi di trasparenza leggeri, mentre i sistemi che presentano un alto rischio saranno soggetti a requisiti molto specifici e stringenti. L’Unione Europea diventa quindi la prima giurisdizione ad approvare una regolamentazione specifica sull’Intelligenza Artificiale: nella ricerca di un equilibrio possibile fra necessità di controllo e volontà di promuovere e presidiare una corretta innovazione.  

Parafrasando John Stuart Mill, che diceva che il valore di uno Stato a lungo andare è il valore degli individui che lo compongono e lo servono, possiamo dire che il valore del contributo della AI è proporzionale alla capacità degli individui che la programmano di “servire” tutte le comunità da cui questa tecnologia sarà utilizzata. Non è semplice, non è scontato, non è immediato, non è intellegibile immediatamente: non appartenendo al senso e al significato “dell’essere oggi in funzione della nostra storia”, questo “sistema di risposta generativa” va ammaestrato e reso edotto dei sistemi complessi che contraddistinguono l’umanità. Ma va anche (in che modo?) reso partecipe della bellezza che abbiamo prodotto e della altrettanto diffusa “incapacità” di fare comunità. 

Cosa sa fare, e bene, l’AI? Imitare. Alain Turing non si chiedeva se le macchine potessero pensare ma si domandava se fossero brave nel gioco dell’imitazione. E questo, abbiamo visto, lo sanno fare. Le AI imitano e riproducono gli schemi che determinano il linguaggio, sia verbale che creativo. Il tema del comportamento diventa quindi esiziale perché comportamenti e linguaggi sono strettamente legati. La AI non utilizza il linguaggio per rappresentarsi, lo fa solo in risposta ad un input. Esse non si comportano e in definitiva a loro il linguaggio non serve. Le AI non hanno coscienza o consapevolezza del loro esistere, e dunque non hanno necessità di riferire uno status, o un comportamento, e quindi il loro interagire è diverso dal nostro. Mentre per gli uomini il linguaggio è una necessità relazionale e di fatto è un mediatore che trasferisce visioni da una persona ad un’altra (creando il senso di comunità) per la AI una parola è un valore statistico, non di significato e di correlazione con il significante coerente con esperienza e comportamento. 

Pur nella “confusione” attuale siamo certi che la AI non saprà mai distinguere – da sola – ciò che è giusto da ciò che è sbagliato: e sulla base di quale istruzione umana avrà mai la capacità di discernere? Questa tecnologia non sa creare il futuro, non credo che sarà mai capace di essere responsabile, non potrà provare emozioni, capire i principi etici, essere consapevole. Parliamo sul serio di intelligenza? L’abbiamo definita intelligenza generativa solo per comodità: ci saremmo affidati ad essa se non l’avessimo chiamata così? Lo dubito, ed è per questo che la sfida della AI non è renderla capace, ma rendere gli umani capaci di saperla gestire. Perché lasciare le macchine da sole potrebbe essere un rischio molto grande. Se le macchine e la loro “intelligenza” potranno sostituire gli umani in molte operazioni complesse sarà necessario ripensare le modalità di sviluppo delle potenzialità di ciascuno, per dare ai talenti di ciascuno la capacità di riappropriarsi della creatività, per consentire alle persone di poter contribuire ad una “creazione” che sia partecipata dalle capacità di tutti. Rispetto alla rivoluzione industriale e a tutte le sue conseguenze, in un prossimo futuro la società nel suo complesso dovrà attrezzarsi come non mai per essere veramente un organismo “maieutico”, capace cioè, di tirar fuori da tutti le proprie potenzialità e i propri talenti. Pensiero sistemico, pensiero laterale, capacità di ragionare per proprietà emergenti: questo la AI non potrà farlo. 

L’AI act è di fatto il primo documento al mondo che prova a rendere sostenibile lo sviluppo di quella che appunto abbiamo deciso di chiamare intelligenza artificiale: intelligenza artificiale sostenibile, capace cioè, nel controllo degli algoritmi e nelle loro evoluzioni, di non distruggere il capitale intangibile, il capitale semantico e il capitale immateriale che essendo frutto delle relazioni umane non saranno mai appannaggio della capacità delle macchine di processare miliardi di dati. Dati, processi, scritture di codice e invasività che non possono e non devono essere lasciati appannaggio di pochi, semmai arrivati prima nella definizione delle regole e della diffusione della tecnica. La legge europea sull’intelligenza artificiale va proprio in questa direzione: non lasciare nelle mani di pochi la possibilità di governare la tecnica e con questa l’influenza che questa ha nella creazione del capitale immateriale, che dovrebbe restare sempre nelle mani degli umani. Ma cosa sa la macchina di noi e cosa noi sappiamo della macchina? Come possiamo essere certi che non si sostituisca a noi nell’essenza della creatività? 

Come abbiamo capito l’innovazione digitale e l’intelligenza artificiale stanno rivoluzionando ogni aspetto della nostra vita, intrecciandosi indissolubilmente con i processi economici, sociali e politici: questa trasformazione epocale ci obbliga a coglierne le opportunità e a governare le sfide che si prospettano. L’intelligenza artificiale rappresenta un potente strumento di policy making, offrendo ai legislatori nuovi orizzonti per l’analisi dei dati, la simulazione di scenari e la definizione di politiche più efficaci, eque, equilibrate e capaci di rendere lo scenario più orientato ad una democrazia della capacità. L’AI può essere impiegata per ottimizzare la spesa pubblica, migliorare l’erogazione dei servizi, personalizzare l’istruzione e la formazione, e per tutelare l’ambiente. Tuttavia, è fondamentale garantire che l’utilizzo dell’AI sia trasparente, responsabile e rispettoso dei principi etici e democratici, ed anche di quelli estetici. L’era digitale che stiamo vivendo pur offrendo un terreno fertile per l’informazione e la partecipazione democratica, presenta – è da dire – il rischio di una distorsione del dibattito pubblico. La diffusione di fake news, la manipolazione dell’informazione e la crescente disinformazione rappresentano una minaccia per la coesione sociale e per il processo democratico. È fondamentale quindi contrastare i fenomeni di questo tipo promuovendo una reale alfabetizzazione digitale, sostenendo il giornalismo di qualità e tutelando la libertà di espressione.

Se chiamiamo in causa il compianto Daniel Kahneman sul potenziale dell’intelligenza artificiale non possiamo non addentrarci nella dinamica positiva del superamento dei pregiudizi cognitivi. L’IA può analizzare grandi quantità di dati senza subire i pregiudizi cognitivi che influenzano il giudizio umano, portando a decisioni più obiettive in settori come la finanza, la medicina e la giustizia. Possono potenziare il pensiero umano perché l’AI può essere un potente strumento per integrare le sue capacità analitiche con il pensiero intuitivo umano, amplificando le capacità cognitive in compiti complessi e può anche automatizzare compiti ripetitivi perché l’AI può liberare gli esseri umani da compiti faticosi, permettendo di concentrarsi su attività più creative e strategiche. E del resto l’AI ha una serie di limiti che presto diventeranno una nuova categoria di bias cognitivi. Soffre di mancanza di comprensione, spesso eccelle nel pattern recognition e nell’ottimizzazione, ma può fallire nella comprensione profonda del contesto e delle sfumature, limitando la sua applicabilità in alcuni campi. Ha un eccesso di dipendenza dai dati: è valida solo quanto i dati su cui viene allenata. Se i dati sono distorti o incompleti, l’AI può perpetuare e amplificare tali distorsioni nei suoi risultati. Ha una fallacia strutturale rispetto ad etica e buon senso: l’AI non possiede intrinsecamente etica o buon senso, è necessario sviluppare sistemi di AI con solide linee guida e la capacità di comprendere le implicazioni sociali delle loro azioni. Kahneman vedeva l’intelligenza artificiale come uno strumento prezioso con un enorme potenziale per migliorare la società, ma è riuscito a sottolineare la necessità di un uso responsabile e consapevole, con attenzione ai suoi limiti etici e sociali. 

E questo significa che gli “umani” che sovraintendono alla definizione della sua intelligenza devono essere capaci di produrre bellezza e non solo etica, responsabilità reale e non solo sostenibilità. L’organizzazione sociale si trova a dover gestire tutte le conseguenze del suo inarrestabile sviluppo e può diventare il presupposto della stabilità, o instabilità, dei sistemi politici contemporanei. Ed in questo ambito dobbiamo chiederci se la disponibilità di nuovi dati e il continuo miglioramento della capacità di elaborazione ci aiuteranno a ridurre gli sprechi (aumentando la capacità di delivery generale) e ci consentiranno di controllare con maggiore precisione l’intera organizzazione socio-economica che abbiamo creato, riducendo l’entropia che produciamo. 

La complessità potrà essere meglio analizzata, le risposte ad essa potranno essere più efficaci, il rumore potrà essere ridotto ma siamo sicuri che riusciremo a dominare ancora di più i processi fisici e biologici?

Forse è il caso di mettere in discussione la completa cornice epistemologica e le attività di senso entro cui ci siamo abituati a pensare e ad usare la scienza e la tecnica. Se la prospettiva estrattiva, che conforma l’Io nella sua dinamica della massimizzazione del suo interesse – e se questi umani saranno quelli che scriveranno gli algoritmi – allora la AI non sarà una soluzione. Sono semmai soluzioni non tecniche, intelligenti, estetiche e relazionali – ma non algoritmiche – che potranno aiutarci a rendere il vissuto e il vivente una relazione non distruttiva con i diversi noi e con il reale che ci circonda. È come il biopotere, immaginato da Michel Foucault: un potere che controlla le coscienze, i corpi, l’inconscio. Nella logica del “dispositivo” è insita la duplice dinamica del “disporre” e dell’essere disposti: gli utenti diventano una funzione del sistema di cui si servono. Paul Valéry scriveva: “La macchina governa. La vita umana è da essa rigorosamente incatenata, assoggettata alla volontà terribilmente esatta dei meccanismi. Queste creazioni umane sono esigenti. Esse reagiscono attualmente ai loro creatori e li plasmano secondo il proprio apparato. Servono loro degli uomini ben addestrati; per cui ne cancellano a poco a poco le differenze e li rendono adatti al loro funzionamento regolare, all’uniformità del loro regime. Esse si costruiscono quindi un’umanità a loro uso, quasi a loro immagine”. Quanto siamo lontani da questo scenario, certi distopico, lo potrà dire solo la nostra capacità di essere consapevoli, di mantenere l’incanto e lo stupore dinanzi al reale. E di ritornare ad essere una comunità, pensante ed esigente per una sostenibilità del reale.

Per tutto questo, e non solo per questo, il legislatore italiano ha il dovere di assumere un ruolo centrale nel guidare il Paese verso un futuro digitale sicuro, prospero e inclusivo, e per farlo deve porre in essere politiche capaci di generare impatto positivo e output certi e verificabili: investire nella ricerca e nell’innovazione digitale sostenendo lo sviluppo di tecnologie AI in linea con i principi etici e democratici; promuovere l’alfabetizzazione digitale educando i cittadini all’uso consapevole e critico delle tecnologie digitali; contrastare la disinformazione attraverso la regolamentazione dei social media e le piattaforme online per contrastare la diffusione di fake news e contenuti dannosi; sviluppare un quadro normativo adeguato per recepire l’AI Act e definire norme nazionali per l’utilizzo responsabile dell’intelligenza artificiale; favorire la collaborazione tra pubblico e privato creando sinergie tra istituzioni, imprese e cittadini per affrontare le sfide e cogliere le opportunità dell’era digitale. Potremmo dire che la sfida delle nuove tecnologie ci pone dinnanzi l’urgenza e l’imperativo della costruzione di un sistema relazionale capace di rendere efficace la collaborazione tra istituzioni, imprese, corpi intermedi, università: una rivoluzione umana e relazionale che ci renderà capaci di usare le macchine per la costruzione la diffusione di un nuovo bene comune.

Leave a Reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *