Le preoccupazioni espresse da Sam Altman, CEO di OpenAI, riguardo ai rischi potenzialmente devastanti dell’intelligenza artificiale, acquistano un particolare rilievo in relazione all’introduzione dell’IA nella pubblica amministrazione. Come sottolineato da Altman, l’IA è una “tecnologia chiaramente molto potente” i cui effetti “potrebbero andare molto male” se non adeguatamente controllati e indirizzati nella giusta direzione.
Nell’ambito della governance algoritmica della burocrazia, l’implementazione dell’IA apre certamente nuove e affascinanti opportunità, tra i quali di fondamentale importanza è l’erogazione più efficiente dei servizi pubblici per una risposta più rapida alle esigenze dei cittadini. Tuttavia, tale potenziale, come si è evidenziato negli articoli precedenti, va bilanciato con i problemi che possono sorgere riguardo all’imprevedibilità e alla pericolosità intrinseca di questa tecnologia.
Max Weber aveva già evidenziato come la burocrazia rappresenta “la forma organizzativa più razionale ed efficiente per gestire le complessità della società moderna“1. L’introduzione dell’IA nella pubblica amministrazione può quindi migliorare ulteriormente questa razionalità e efficienza, automatizzando processi, ottimizzando l’allocazione delle risorse e fornendo indicazioni basate su un numero potenzialmente infinito di dati.
Tuttavia, già mezzo secolo fa, agli albori dell’informatica, il filosofo e informatico Joseph Weizenbaum poneva l’attenzione sui rischi di un’eccessiva fiducia negli algoritmi, affermando che “i computer possono essere programmati per prendere decisioni, ma non per comprendere il contesto in cui queste decisioni vengono prese” 2. Appare evidente, dunque, come i rischi di bias algoritmici e di rigidità decisionale sono particolarmente critici nel settore pubblico, dove i processi decisionali devono mantenere trasparenza, equità e accountability.
Pertanto, l’adozione dell’IA nella pubblica amministrazione dovrebbe avvenire in modo equilibrato, preservando il ruolo essenziale dell’intelligenza umana e implementando robuste misure di controllo e monitoraggio. Solo così sarà possibile coglierne i benefici senza compromettere i principi fondamentali di una governance democratica.
L’integrazione di algoritmi e sistemi di intelligenza artificiale all’interno dei processi amministrativi della pubblica amministrazione può portare, quindi, a una significativa semplificazione e accelerazione delle attività burocratiche.
L’implementazione di tecnologie algoritmiche predittive e di data mining consente una razionalizzazione sistemica nell’allocazione delle risorse pubbliche, configurandosi come un dispositivo socio-tecnologico di ottimizzazione organizzativa. Tali sistemi di intelligenza artificiale, attraverso l’analisi computazionale di pattern comportamentali e l’elaborazione di modelli previsionali, rappresentano un meccanismo di governo che supera le tradizionali logiche burocratiche, introducendo un paradigma di gestione pubblica data-driven.
Con l’utilizzo dell’IA si potrebbe dar luogo ad un dispositivo di governance che permetterebbe una rimediazione dei processi decisionali, consentendo una decostruzione dei procedimenti amministrativi, scomponendoli in dati semplici, che l’IA può rielaborare in modo da ottimizzarli. Mediante l’integrazione di dataset eterogenei – provenienti da infrastrutture sensoriali, piattaforme di comunicazione digitale e registri istituzionali – questi sistemi introdurrebbero una modalità di analisi sistemica che va ben oltre i confini tradizionali della disciplina amministrativa, con ciò superando le logiche burocratiche tradizionali per dare vita a modelli di governance più fluidi e responsivi.
L’evidente impatto etico di tale processo tecnologico richiede ovviamente l’attivazione di rigorosi sistemi di coordinamento etico-normativo, che garantiscano la protezione dei diritti individuali e collettivi. L’adozione di tali sistemi, infatti, non può prescindere da un’attenta valutazione dei potenziali impatti sociali, predisponendo meccanismi di accountability e trasparenza che prevengano possibili derive tecnocratiche.
Il passaggio da un modello burocratico rigido a un sistema amministrativo supportato dall’IA, costituisce una trasformazione epistemologica di grande impatto, un cambio di paradigma che richiede una riconcettualizzazione dei criteri di governance pubblica che caratterizzano la burocrazia attuale. La vera sfida è dunque quella di riuscire a introdurre l’IA nei procedimenti amministrativi, mantenendo un difficile equilibrio dialettico tra efficienza computazionale e garanzie democratiche, tra le infinite potenzialità della tecnologia e la tutela dei diritti individuali e collettivi dei cittadini.
In effetti il problema dell’integrazione dell’intelligenza artificiale nella pubblica amministrazione è ben presente nelle agende dei governi specie di quelli europei, Italia compresa, e sta seguendo un percorso evolutivo caratterizzato da uno sviluppo prudente e strategico. Attualmente, le soluzioni tecnologiche si concentrano prevalentemente su procedimenti amministrativi a bassa complessità, dove l’uso dell’IA può generare efficienza senza compromettere la discrezionalità decisionale.
I sistemi di Machine Learning vengono progressivamente introdotti per ottimizzare iter procedurali standardizzati, con il duplice obiettivo di ridurre i costi operativi e mantenere un’elevata tracciabilità delle procedure. La giurisprudenza ha finora accolto favorevolmente questi approcci, riconoscendo la loro capacità di alleggerire il carico burocratico senza intaccare i principi fondamentali dell’azione amministrativa.
Quando però l’IA supera la mera automazione e inizia a identificare schemi decisionali attraverso l’apprendimento automatico, emergono ulteriori problemi legati, come si è accennato, al contemperamento di interessi molteplici e potenzialmente conflittuali.
Il punto critico risiede nella capacità degli algoritmi di gestire la complessità delle decisioni pubbliche. Per quanto sofisticata, infatti, l’IA, rischia di incontrare limiti sostanziali quando si trova a dover bilanciare istanze diverse, soprattutto laddove le istruzioni non possono essere riconducibili ad algoritmi.
L’introduzione di sistemi di Deep Learning nelle procedure burocratiche, di conseguenza, non può essere visto alla stregua di un mero aggiornamento tecnologico, ma deve essere il risultato di un ripensamento epistemologico delle modalità attraverso cui le istituzioni generano e validano le decisioni.
L’opacità computazionale rappresenta il primo e più significativo punto critico. I nuovi sistemi di deep learning generano processi decisionali totalmente inintelligibili, dove la catena logica che conduce a una specifica conclusione diventa un territorio oscuro, inaccessibile perfino ai suoi stessi progettisti. Questa perdita di trasparenza algoritmica non è semplicemente un problema tecnico, ma una vera e propria frattura nel rapporto tra tecnologia e governance. Ciò peraltro va in contraddizione netta con quanto stabilito dalla giurisprudenza amministrativa in materia di automazione dei procedimenti amministrativi; essa sostiene, infatti, che è necessaria la “piena conoscibilità a monte del modulo utilizzato e dei criteri applicati e l’imputabilità della decisione all’organo titolare del potere, il quale deve poter svolgere la necessaria verifica di logicità e legittimità della scelta e degli esiti affidati all’algoritmo”, attraverso una “declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico” cosa spesso impossibile in un processo di deep learning3.
Le implicazioni socio-istituzionali sono altrettanto dirompenti. Quando un algoritmo diventa un decisore che non può essere compreso né controllato, si può determinare un cortocircuito democratico. I meccanismi di partecipazione e controllo, costruiti faticosamente in secoli di evoluzione istituzionale, rischiano di dissolversi di fronte a questi nuovi sistemi che operano come “black box” imperscrutabili.
Sul piano ermeneutico, la sfida è ancora più radicale. Gli esiti algoritmici sono spesso privi di contestualizzazione, incapaci quindi di comprendere le sfumature semantiche e i significati profondi che ogni decisione comporta. Non si tratta solo di un limite computazionale, ma di un’autentica crisi del senso: l’algoritmo produce risultati ma non significati. In tal senso si potranno calcolare risposte statisticamente precise, identificare correlazioni complesse e generare output apparentemente coerenti. Tuttavia, mancherebbe quella capacità umana di comprendere il contesto più ampio per interpretare le sfumature emotive e cogliere le implicazioni etiche; non potrebbe attribuire valore simbolico o riconoscere significati impliciti. In altri termini sarebbe come tradurre letteralmente una poesia per cui si possono spiegare le parole, ma si perde completamente l’essenza poetica, l’emozione ed il senso più intimo del testo.
La “black box”, che sta alla base del deep learning dei sistemi di AI evoluti, diventa così una sorta di metafora di una trasformazione epistemologica che sovverte i paradigmi del pensiero razionale occidentale. Un modello matematico che sfugge ai criteri tradizionali di valutazione giuridico-amministrativa, introducendo una forma di decisionalità che non è né trasparente né pienamente controllabile.
L’implementazione di questi sistemi non è quindi solo una questione tecnologica, ma un passaggio cruciale che rimette in discussione le stesse fondamenta della legittimazione democratica: di fatto a chi può essere imputata la decisione quando questa viene presa da un algoritmo che nessuno può davvero comprendere, neanche chi lo ha creato? Un sistema di IA incentrato sui valori occidentali della produttività ed efficienza economica potrebbe decidere di porre fine alla vita di un malato cronico, improduttivo in quell’ottica ma che può continuare ad avere una vita piena ed intensa. Siamo sicuri di voler svendere la nostra umanità alla “superiore intelligenza” di una macchina?
In definitiva, ci sembra corretto affermare che l’integrazione dell’IA nella governance pubblica rappresenta un paradigma evolutivo che si configura come una ridefinizione strutturale dei processi decisionali e amministrativi. L’intelligenza artificiale diventa il fattore abilitante di una metamorfosi istituzionale, capace di generare sinergie tra efficienza computazionale e intelligenza organizzativa. Il suo potenziale si dispiega su molteplici dimensioni: dalla semplificazione procedurale all’ottimizzazione delle risorse, dall’analisi predittiva alla rigenerazione dei modelli di interazione cittadino-istituzione.
Tuttavia, questo orizzonte tecnologico richiede un approccio metodologico profondamente riflessivo e non può ridursi a un mero esercizio di sostituzione algoritmica, ma deve configurarsi come un processo di integrazione critica, dove la tecnologia diviene strumento di potenziamento delle capacità umane e non un loro surrogato. Le necessarie salvaguardie etiche e i protocolli di sicurezza dei dati non devono rappresentare un vincolo esterno, bensì una componente genetica del processo di trasformazione digitale. La sfida cruciale risiede nel costruire un’intelligenza artificiale che non solo ottimizzi, ma valorizzi la complessità dei sistemi amministrativi, preservando i principi fondamentali di trasparenza, partecipazione e controllo democratico.
Un modello di pubblica amministrazione algoritmicamente aumentata, dove la tecnologia non sostituisce ma arricchisce la capacità decisionale umana. Siamo di fatto entrati nell’era dell’umanesimo digitale, dove il concetto di etica assume un rilievo ancor più pregnante che ridefinisce il rapporto uomo-macchina.
La denominazione “Umanesimo Digitale” non è casuale, ma sottolinea una continuità storica. L’Umanesimo rinascimentale ha operato una radicale svolta antropocentrica, ponendo l’uomo al centro del proprio interesse conoscitivo e trasformando radicalmente la visione del mondo e del sapere. Analogamente, nel contesto contemporaneo, il “mondo” da esplorare e comprendere è quello digitale. L’Umanesimo Digitale invita dunque a collocare l’essere umano al centro di questo nuovo universo, assumendo un ruolo attivo nella sua costruzione e nel suo utilizzo, promuovendo un approccio allo sviluppo tecnologico che si focalizza sull’utilità sociale e umana delle innovazioni. L’obiettivo è creare tecnologie che siano al servizio dell’uomo e non viceversa, garantendo un rapporto simbiotico tra individuo e macchina 4.
L’Umanesimo Digitale, in definitiva, rappresenta un invito a ripensare il rapporto tra uomo e tecnologia, ponendo l’essere umano al centro di un processo di co-evoluzione, con lo scopo di valorizzare le potenzialità umane attraverso l’utilizzo consapevole e critico delle tecnologie digitali, per costruire un futuro in cui l’innovazione sia al servizio del benessere collettivo.
1M. Weber, economia e società, ed. Donzelli, Roma, 2005.
2J. Weizenbaum Il potere del computer e la ragione umana. I limiti dell’intelligenza artificiale, ed. Gruppo Abele, Torino, 1987.
3Per un approfondimento cfr. il mio precedente articolo: algoritmi neutrali e burocrazia imparziale su giuseppemotta.it (https://www.giuseppemotta.it/algoritmi-neutrali-e-burocrazia-imparziale/).
4Cfr. J. Nida-Rumelin, N.Weindenfeld, Umanesimo digitale: un’etica per l’epoca dell’intelligenza artificiale, Franco Angeli, Milano, 2019.