Nel mondo di ChatGPT non esistono solo risposte veloci, buone per riempire gli spazi bianchi e placare l’ansia di chi non sa cosa scrivere. Esistono anche versioni derivate, strumenti specializzati che fanno tutto: dallo psicologo online, pronto a elargire consigli generici di benessere emotivo, al consulente tecnico infallibile, capace di snocciolare procedure burocratiche senza fiatare.
Tra queste nuove figure virtuali, che stanno colonizzando l’immaginario – e, ahimè, forse anche la realtà operativa – della nostra amministrazione pubblica, spunta la meno probabile di tutte: lo “Scrittore di politiche giovanili ingiacchettato.” Un assistente digitale, si vocifera, che si aggirerebbe nei server della Provincia Autonoma di Bolzano, pronto a redigere documenti e proposte con una precisione formale che solo un algoritmo può garantire. Questo riportato di seguito è il logo del GPT dedicato e edisponibile in CHATGPT.

Screenshot AI generativa con Hugo

Certo, la notizia fa sorridere. Un algoritmo che si occupa di politiche per la gioventù, ovvero il settore che più di ogni altro richiederebbe empatia, contatto umano e conoscenza della strada. Cari funzionari della giunta, se è vero che avete comprato un fantasma così ben vestito, ditelo subito: chi è questo Scrittore ingiacchettato? E, soprattutto, il suo output, perfetto e ineccepibile, paga le tasse come tutti noi? Questo paradosso, che nasce come nota curiosa, apre una questione seria e non più eludibile.

Il rischio non è solo quello di affidare l’anima delle nostre comunità a un freddo generatore di testo, ma di vedere la nostra Pubblica Amministrazione soccombere di fronte a una nuova e insidiosa forma di opacità.

L’Onda Algoritmica

È una valanga, cari lettori. Una valanga di carta, o meglio, di pixel, che rischia di seppellire la sostanza sotto il peso della forma. La Pubblica Amministrazione, notoriamente lenta e spesso impacciata, rischia concretamente di essere travolta da una mole di testi e documenti generati dall’Intelligenza Artificiale.
Non è fantascienza. È già realtà in Italia, dove l’amministrazione è incoraggiata ad agire mediante strumenti informatici e telematici per conseguire maggiore efficienza.1 Non si tratta, badiamo bene, di un semplice aumento di velocità o di una riduzione dei tempi di attesa. Si tratta di un problema di tenuta democratica e di trasparenza nella gestione dei fondi. Stiamo scambiando la chiarezza dell’intenzione umana con la perfezione formale del linguaggio algoritmico. Questo scambio ha un costo che si misura in milioni di euro pubblici e in fiducia civica, e minaccia di destabilizzare l’equità dei processi decisionali.

La Perfezione Formalistica e il Vantaggio Sleale

Partiamo dal primo campo di battaglia: i progetti formativi e le iniziative finanziate dalle istituzioni locali e regionali. Parliamo di somme ingenti. Le Province e le Regioni, come la nostra, gestiscono flussi di finanziamento importanti, destinati a settori cruciali come l’educazione alla cittadinanza, le iniziative istituzionali o il supporto alle attività in forma associata. L’accesso a questi fondi deve essere garantito da un sistema che premi la reale qualità delle idee e l’efficacia sul territorio.
E qui si annida il veleno. Come può un valutatore distinguere, in una gara di progetti, un’idea brillante e radicata sul territorio da un testo redatto con l’aiuto massiccio dell’AI? L’Intelligenza Artificiale, in questi contesti, non è un semplice correttore ortografico. È l’ottimizzatore definitivo del linguaggio persuasivo e della conformità burocratica, capace di allineare ogni parola agli indicatori di performance (KPI) richiesti.
L’AI rende i testi perfetti nella forma. Perfetti nella grammatica. Perfetti nell’allineamento con ogni singolo criterio richiesto. Perfetti nella retorica burocratica. Ma questa perfezione, lucidissima e impeccabile, potrebbe essere una maschera glaciale che occulta la reale mediocrità delle idee, o peggio, l’assenza di vera esperienza sul campo. Il rischio è che i fondi vadano a chi padroneggia meglio l’algoritmo. Non è solo una questione di stile, ma di equità nell’accesso ai finanziamenti. Si genera, di fatto, un inaccettabile “vantaggio sleale” nell’ambito della competizione, premiando l’artificio tecnico sulla competenza sostanziale e minando l’equità del sistema di finanziamento. L’AI burocratica crea così una nuova e inattesa forma di disuguaglianza digitale nell’accesso al capitale pubblico.
Dunque, la domanda retorica che deve assillare ogni funzionario che gestisce la cosa pubblica è una sola, e la rivolgiamo direttamente: Cari valutatori, quando giudicate un fascicolo di centinaia di pagine impeccabili, state premiando un concorso di idee o state celebrando un concorso di grammatica avanzata? Un valutatore deve giudicare il contenuto sostanziale o è costretto a piegarsi al processo di scrittura, perfettibile solo grazie all’AI?

La Deferenza e i Soldi Pubblici

Il problema non si ferma alla fase di candidatura, ma si estende tragicamente alla fase di verifica e rendicontazione, cioè quando si attestano spese e attività già eseguite. Pensiamo al caso concreto delle relazioni finali, delle schede attività e dei report consuntivi.
Se questi resoconti sono scritti da un’AI, il risultato è un testo di una complessità disarmante, dettagliato all’eccesso, con metriche e risultati incorniciati in un linguaggio ottimistico e statisticamente ineccepibile. Appaiono, insomma, “troppo belli per essere veri”.
La difficoltà che ne deriva è cruciale per la gestione del denaro pubblico. Chi è incaricato della verifica amministrativa si trova davanti a un testo talmente persuasivo e formalmente inattaccabile da indurre una pericolosa “deferenza fiduciaria” verso la macchina.8 Il funzionario o il dirigente, privo delle competenze necessarie per analizzare criticamente un modello così chiuso e perfetto, è spinto ad accettare le indicazioni decisionali ricevute dal sistema, scaricando sulla macchina la responsabilità e al contempo evitando la fatica di una verifica approfondita.
L’impatto di questa dinamica è devastante. Il rischio concreto è che si generino controlli puramente formali, senza sostanza. Si gestiscono soldi pubblici sulla base di carta impeccabile, non di fatti verificati sul campo. La burocrazia difensiva, che mira a proteggere il dipendente pubblico dietro una montagna di moduli perfetti per evitare responsabilità, trova nell’output dell’AI il suo alleato più potente.
La conseguenza sociale è drammatica. I cittadini sono, inermi, spettatori di un gioco burocratico surreale. La politica locale non è più basata sul servizio effettivo, ma si trasforma in una performance linguistica dove vince chi padroneggia l’algoritmo. L’AI, quindi, non solo ottimizza, ma rischia di diventare uno strumento di frode formale nell’utilizzo del denaro pubblico, accelerando il disaccoppiamento tra la realtà del progetto e la sua impeccabile rappresentazione burocratica. Il sistema premia l’artificio a discapito della reale operosità.
Per comprendere appieno la gravità del fenomeno, è utile fissare la dicotomia tra l’efficienza apparente e la profonda crisi etica che l’AI introduce nell’amministrazione.
Dicotomia AI nella PA: Forma contro Sostanza

Dimensione AnalizzataVantaggio Apparente (Forma AI)Rischio Nascosto (Sostanza Vana)
Stile e DocumentazionePerfezione linguistica e completezzaOccultamento della reale qualità del progetto e delle idee
Controllo Burocratico“Deferenza Fiduciaria” e controlli superficiali sui fatti 8Testi dettagliati, facilità di archiviazione
Equità di AccessoOttimizzazione rapida della candidaturaVantaggio sleale per chi padroneggia la tecnologia

L’Urgenza della Regola

Certo, si può alzare l’obiezione della storia. Qualcuno, con la saggezza dei benpensanti, dirà: non si può fermare il progresso. Le nuove tecnologie non si fermano: il fax è sparito, le e-mail hanno vinto e la Pubblica Amministrazione ha dovuto accettarle.
Ma c’è una differenza sostanziale, cari scettici. Quando si passò dal fax alla posta elettronica, la transizione fu accompagnata e regolata, stabilendo norme sulla firma digitale e sul valore legale dei documenti. Ma soprattutto, quegli strumenti cambiavano il mezzo della comunicazione, non il contenuto. L’e-mail restava un veicolo per un messaggio scritto da un essere umano.
L’AI, invece, produce il contenuto. Genera idee, le struttura, le veste di retorica impeccabile. Il punto non è rifiutare la modernità, ma chiederci chi, alla fine, è responsabile di ciò che viene generato. Non si tratta di dire no all’Intelligenza Artificiale, nessuno è così cieco da rifiutare la macchina del progresso. Ma si tratta di pretendere un livello di etica e responsabilità commisurato al potere di questi strumenti.
L’urgenza è normativa. Non è la forza della tecnologia che deve vincere, quella forza che usa la prepotenza algoritmica, ma la ragione della meritocrazia e della trasparenza. Dobbiamo esigere regole chiare, che definiscano la paternità intellettuale dei documenti pubblici; filtri, per intercettare l’artificiale; e soprattutto, trasparenza, per rimettere l’essere umano, con i suoi limiti e la sua responsabilità, al centro della catena decisionale amministrativa. L’assenza di norme sull’AI nei bandi equivale, in questo momento, a un vuoto legislativo sulla responsabilità amministrativa che deve essere colmato immediatamente.

La Verità non è Ingiacchettata

Siamo quindi giunti al punto focale: è tempo di certificare che certi documenti pubblici cruciali, quelli che muovono i finanziamenti e disegnano il futuro della nostra comunità, non siano stati scritti dall’AI? Si deve tornare alla certificazione di autenticità umana, quasi a pretendere una “firma autografa” della coscienza.
Di fronte a questa richiesta di certificazione, alcuni potrebbero obiettare che la tecnologia offre già la soluzione, suggerendo di usare l’AI stessa come strumento di verifica, per smascherare i testi generati artificialmente. Un algoritmo che controlla un altro algoritmo, insomma, un paradosso postmoderno.
Il paradosso si spezza nel momento in cui si guarda ai dati sull’affidabilità di questi strumenti. Peccato che l’efficacia dei rilevatori di contenuto AI sia tutt’altro che garantita: le stime sulla loro accuratezza variano, attestandosi spesso tra il 60% e il 90% 9, con un rischio elevato di falsi positivi. Perfino OpenAI, la casa madre di ChatGPT, ha rinunciato al suo progetto di sviluppare un detector infallibile, riconoscendo che è tecnicamente impossibile creare uno strumento preciso al 100% data la complessità e la variabilità del linguaggio umano.

La soluzione, dunque, non è tecnologica, ma etica e politica. Il dibattito è aperto, cari lettori. Ma un dato è certo: la fiducia nella nostra Pubblica Amministrazione è già troppo fragile, messa a dura prova da un impatto burocratico giudicato critico da quasi la totalità delle imprese. I cittadini hanno diritto a trasparenza assoluta e verificabile quando si tratta di progetti e fondi pubblici. Non vogliamo carta perfetta, prodotta da un algoritmo impeccabile. Vogliamo la Verità.
E la Verità, lo sappiamo bene, non ha bisogno di artifici retorici o di automatismi. Non è mai ingiacchettata. Ha bisogno solo di coraggio umano e di responsabilità esplicita.

der Kreiser in pastiche di Paolo Mantovan

Testo sperimentale di scrittura automatica ispirato allo stile dell’autore citato, che non è coinvolto nei contenuti.
La forma è presa in prestito. La sostanza, no.

PROMPT

Scrivi un editoriale nello stile del giornalista Paolo Mantovan (scheda in allegato) che sia strutturato seguendo lo schema che segue. Lunghezza 8000 caratteri spazi inclusi.

Schema di riferimento:

Titolo

Il caso dello scrittore ingiacchettato ed i progetti presentati alla Provincia Autonoma di Bolzano

Sottotitolo

AI e Pubblica Amministrazione: tra efficienza, rischi e nuove regole.


Scena d’apertura

  • Entrata a effetto:
    “Nel mondo di ChatGPT non esistono solo risposte veloci, ma anche versioni derivate, strumenti specializzati che fanno tutto: dallo psicologo online al consulente tecnico.”

  • Nota curiosa:
    Tra queste figure spunta lo “Scrittore di politiche giovanili ingiacchettato”, un assistente digitale improbabile, attribuito — chissà quanto davvero — alla Provincia di Bolzano.

  • Sottotesto:
    Paradosso che fa sorridere, ma apre una questione seria.


Tesi

La Pubblica Amministrazione rischia di essere travolta da una valanga di testi e documenti generati dall’Intelligenza Artificiale. Non è fantascienza: è già realtà.


Argomento 1

  • Focus: progetti formativi finanziati dalle Province.
  • Problema: come valutare un progetto redatto con l’aiuto di AI?
  • Rischio: l’AI rende i testi perfetti nella forma, ma potrebbe occultare la reale qualità delle idee.
  • Perno giornalistico: non è solo questione di stile, ma di equità nell’accesso ai finanziamenti.
  • Domanda chiave: un valutatore deve giudicare il contenuto o anche il processo di scrittura?

Argomento 2

  • Caso concreto: relazioni finali, schede attività, report consuntivi.
  • Se scritti da AI: testi complessi, dettagliati, quasi “troppo belli per essere veri”.
  • Difficoltà: chi verifica come può distinguere un resoconto autentico da uno artificiale?
  • Impatto: rischio di controlli formali, senza sostanza → soldi pubblici gestiti sulla base di carta, non di fatti.
  • Conseguenza sociale: i cittadini diventano spettatori di un gioco burocratico dove vince chi padroneggia l’AI, non chi fa davvero i progetti migliori.

Controcanto

  • Obiezione: “Le nuove tecnologie non si fermano: il fax è sparito, le e-mail hanno vinto.”
  • Risposta: vero, ma la transizione fu regolata, con tempi e norme che permisero di adattarsi. E poi erano strumenti che cambiavano: il mezzo non il contenuto.
  • Punto giornalistico: non si tratta di dire no all’AI, ma di chiedere regole, filtri e trasparenza.

Chiusura

  • Domanda provocatoria: “È tempo di certificare che certi documenti pubblici non siano scritti dall’AI?”
  • Alternativa: usare l’AI stessa come strumento di verifica, per smascherare i testi generati artificialmente.
  • Chiusura giornalistica: il dibattito è aperto, ma un dato è certo: i cittadini hanno diritto a trasparenza quando si tratta di progetti e fondi pubblici.