
Perché gli scenari previsionali elaborati da gruppi indipendenti finiscono spesso per assomigliarsi? La spiegazione più diffusa attribuisce questo fenomeno all’influenza dei modelli linguistici e degli strumenti di intelligenza artificiale, ritenuti responsabili di produrre effetti di ancoraggio cognitivo e di favorire processi di atrofia da automazione. Questa interpretazione coglie elementi reali, ma rischia di confondere una dinamica più profonda con il suo acceleratore tecnologico. I meccanismi psicologici che spingono verso la convergenza degli scenari esistevano molto prima dell’avvento dell’intelligenza artificiale. La causa strutturale di tale convergenza, più che negli strumenti utilizzati, va probabilmente ricercata nel contesto della committenza: le organizzazioni che finanziano analisi sul proprio futuro tendono a selezionare nel tempo analisti e metodi capaci di generare scenari compatibili con la loro sopravvivenza istituzionale. L’intelligenza artificiale non crea questa dinamica, ma ne accelera la velocità e ne aumenta la visibilità. Il problema è ben noto a chi lavora nel campo dell’analisi previsionale. Non servono necessariamente dataset o statistiche per riconoscerlo, è un’esperienza quasi quotidiana, gruppi diversi, incarichi separati e metodologie differenti producono scenari che, dopo uno o due giorni di lavoro, risultano sorprendentemente simili. Cambiano i dettagli, talvolta anche il linguaggio utilizzato, ma le strutture narrative, le categorie interpretative e gli orizzonti temporali restano quasi identici. Studi recenti hanno documentato empiricamente questa impressione diffusa. Un lavoro comparativo di Höjer e Mattsson del 2025 ha analizzato scenari generati sia da analisti umani sia da modelli linguistici, mostrando una convergenza sistematica nelle categorie tematiche, nella struttura causale e negli orizzonti temporali, indipendentemente dal tipo di strumento impiegato. Analogamente, Egea e Shukla nel 2024 hanno osservato nel contesto dell’analisi aziendale una tendenza simile, scenari che appaiono diversi nella forma, ma che condividono le stesse ipotesi di fondo. Il punto cruciale è che questo fenomeno non nasce con l’intelligenza artificiale, ma esiste da decenni. Gli strumenti della disciplina della previsione strategica sono progettati per organizzare ciò che già esiste. Le matrici di analisi, i framework e le metodologie definiscono implicitamente quali variabili possano essere considerate rilevanti. Ciò che non entra nella struttura analitica semplicemente scompare dal mondo immaginato. In altre parole, gli strumenti di previsione non si limitano a descrivere il futuro possibile, ma contribuiscono a delimitarne i confini. La convergenza degli scenari non è necessariamente un difetto. In alcuni casi rappresenta persino un segnale di robustezza analitica. Quando scenari indipendenti convergono su trend strutturali come l’invecchiamento demografico o il cambiamento climatico, la somiglianza tra le analisi può indicare che il consenso empirico è forte. Il problema emerge quando la convergenza oscura discontinuità autentiche o quando riflette interessi organizzativi impliciti che restano fuori dalla discussione esplicita. L’avvento dell’intelligenza artificiale ha reso questo problema più visibile e più urgente e secondo un’indagine del World Economic Forum del 2025, la principale preoccupazione degli analisti rispetto all’uso dell’intelligenza artificiale nella costruzione di scenari, riguarda proprio il rischio di omologazione delle analisi. Questa preoccupazione supera, nella percezione degli esperti, altri timori spesso citati come la perdita delle competenze individuali o l’opacità dei modelli algoritmici. La spiegazione dominante individua tre meccanismi principali. Il primo è l’ancoraggio cognitivo, quando una valutazione parte da un valore iniziale, anche se arbitrario, il ragionamento successivo tende a restare vicino a quel punto di partenza e ciò accade persino quando gli analisti sono consapevoli dell’arbitrarietà iniziale. Nel caso delle valutazioni algoritmiche l’effetto può amplificarsi perché i risultati generati da sistemi automatizzati vengono percepiti come più autorevoli o più oggettivi rispetto alle valutazioni umane. Il secondo meccanismo è l’atrofia da automazione. Quando una competenza viene delegata sistematicamente a un sistema automatico, il livello di esercizio umano diminuisce gradualmente. Con il passare del tempo la capacità si deteriora senza che il processo sia immediatamente percepibile. Il problema diventa evidente solo quando il sistema automatizzato fallisce o produce un risultato inatteso. Ed il terzo meccanismo è quello che potremmo definire monocultura del corpus. I modelli linguistici apprendono dai testi su cui vengono addestrati e tendono a riflettere l’orientamento geografico, culturale e ideologico di quel materiale. Ciò significa che i modelli possono riprodurre schemi di pensiero dominanti e trascurare prospettive minoritarie o marginali. Ed alcune ricerche hanno mostrato che queste distorsioni sono particolarmente visibili nel ragionamento temporale e nelle narrazioni sul futuro. Tutti questi meccanismi sono reali. Tuttavia non spiegano completamente il fenomeno della convergenza degli scenari. Il motivo è semplice, perché ciascuno di essi esisteva già prima dell’intelligenza artificiale. Leggere un rapporto di una grande organizzazione internazionale può produrre lo stesso effetto di ancoraggio che si attribuisce a un modello linguistico e allo stesso modo, l’atrofia da automazione è stata osservata in numerosi contesti tecnologici ben prima dell’era dell’Intelligenza Artificiale. Nel campo della radiologia, ad esempio, questo fenomeno è stato studiato con precisione perché esiste un criterio oggettivo di verifica e, cioè, la diagnosi può essere confrontata con il risultato della biopsia. Nell’analisi previsionale, invece, non esiste un equivalente della biopsia. Non c’è un modo definitivo per verificare la correttezza di uno scenario. La storia della disciplina è piena di analisti brillanti che hanno formulato previsioni rivelatesi errate. Questa caratteristica rende difficile isolare i meccanismi cognitivi e attribuire loro la responsabilità principale della convergenza. Anche la monocultura del corpus è una proprietà dei modelli attuali più che una caratteristica intrinseca dell’intelligenza artificiale. In sostanza, questi tre meccanismi spiegano perché l’Intelligenza Artificiale possa intensificare la convergenza degli scenari, ma non spiegano perché tale convergenza esista da sempre. Per comprendere il fenomeno è necessario spostare l’attenzione verso il contesto economico in cui l’analisi previsionale viene prodotta. La grande maggioranza degli studi sul futuro nasce all’interno di un rapporto di committenza. Un’organizzazione pubblica o privata commissiona scenari sul proprio settore, sul proprio mercato o sulla propria evoluzione strategica. Nel momento in cui viene conferito l’incarico, il committente possiede già una visione implicita del futuro compatibile con la propria sopravvivenza. Lo scenario che elabora e raffina quella visione è immediatamente utilizzabile. Al contrario, uno scenario che metta in discussione le fondamenta dell’organizzazione, la categoria di mercato in cui opera o il suo modello di governance diventa difficilmente gestibile dal punto di vista decisionale. L’ipotesi interpretativa è che il mercato della consulenza selezioni nel tempo, attraverso un processo di sopravvivenza differenziale, gli analisti e le metodologie più capaci di rispondere a questa domanda implicita, e non si tratta di un processo necessariamente consapevole. È piuttosto il risultato cumulativo di molte scelte organizzative. Naturalmente l’evidenza empirica diretta su questo punto è limitata. Poiché non esistono studi sistematici sui contratti, sugli incentivi economici e sui meccanismi di selezione nel mercato delle previsioni strategiche. E di conseguenza, questa interpretazione deve essere considerata come un’ipotesi plausibile più che come una conclusione dimostrata. Tuttavia esistono analogie solide con altri ambiti della ricerca organizzativa. Daniel Kahneman ha mostrato come gli individui tendano a cercare conferme delle proprie convinzioni piuttosto che prove che le falsifichino. Gli studi di Barry M. Staw e Lisa D. Epstein hanno dimostrato che molte organizzazioni adottano tecniche manageriali alla moda, indipendentemente dalla loro efficacia empirica, spesso per ragioni di legittimazione istituzionale. Clayton Christensen ha spiegato perché le imprese consolidate tendano a sottovalutare tecnologie dirompenti perché i loro processi decisionali sono calibrati per soddisfare i clienti esistenti e non per anticipare mercati completamente nuovi. Nessuno di questi studi riguarda direttamente la consulenza previsionale. Tuttavia il meccanismo è simile come le organizzazioni tendono a selezionare idee, metodi e analisi compatibili con la propria struttura istituzionale. In questo contesto l’intelligenza artificiale si inserisce come uno strumento estremamente efficiente. I modelli linguistici sono capaci di produrre scenari plausibili, coerenti e ben articolati a costi molto inferiori rispetto al lavoro umano tradizionale. In altre parole, rispondono perfettamente alla domanda di rassicurazione sofisticata che il mercato ha già generato. Se questi modelli non esistessero, lo stesso effetto verrebbe probabilmente ottenuto attraverso altri strumenti analitici. L’intelligenza artificiale rende il processo più rapido, ma non ne modifica la logica fondamentale. Le implicazioni operative di questa diagnosi sono significative. Se il problema principale risiede nella struttura della committenza, allora le soluzioni puramente tecniche o metodologiche non possono essere sufficienti. E un primo passo consiste nel mantenere una fase di costruzione degli scenari completamente priva di supporto algoritmico. Questa fase dovrebbe precedere qualsiasi utilizzo di modelli linguistici ed usare un modello in modo critico, richiede, infatti, una competenza che può essere distrutta dal suo uso acritico. In pratica, il modello dovrebbe essere introdotto solo dopo che gli analisti hanno sviluppato una struttura autonoma di scenari. A quel punto lo strumento può essere utilizzato non per generare nuove ipotesi, ma per mappare i limiti del pensiero disponibile. Le domande più utili da porre a un modello non sono quelle tradizionali del tipo “costruisci quattro scenari per il settore X”. Domande più produttive potrebbero essere: quali ipotesi condividono tutti gli scenari dominanti su questo tema? Quali attori non compaiono quasi mai nelle analisi disponibili? Quali relazioni causali vengono sistematicamente ignorate? In questo modo il modello risponde inevitabilmente con i bias presenti nel suo corpus di addestramento, ma proprio questa caratteristica può diventare uno strumento analitico, a condizione che gli analisti siano in grado di riconoscere tali distorsioni. Anche sul piano della committenza sono possibili alcuni interventi. Una separazione esplicita tra scenari esplorativi e scenari strategici può ridurre la pressione verso la normalizzazione. Tuttavia questa separazione funziona solo se i due processi hanno interlocutori diversi all’interno dell’organizzazione. Un altro cambiamento riguarda i criteri di valutazione degli scenari. Invece di giudicarli ex post sulla base dell’accuratezza predittiva, che è quasi impossibile da stabilire, potrebbe essere più utile valutarli in base alla loro distanza dal consenso disponibile al momento della loro produzione. Nel lungo periodo questo criterio potrebbe modificare gli incentivi degli analisti. I contesti accademici e pubblici rappresentano gli spazi più favorevoli alla produzione di scenari realmente discontinui, perché operano con orizzonti temporali più lunghi e con minori pressioni immediate di mercato. Tuttavia questi contesti restano marginali rispetto all’industria della consulenza e rischiano di replicarne progressivamente le distorsioni. La convergenza degli scenari previsionali, peraltro, non è un problema tecnologico, ma un fenomeno strutturale radicato nell’economia della produzione di conoscenza strategica. I bias cognitivi e l’atrofia da automazione sono fattori reali che accompagnano qualsiasi pratica analitica basata su informazioni esistenti. Tuttavia la forza principale che spinge verso l’omologazione delle previsioni è probabilmente la struttura della domanda. Le organizzazioni cercano scenari che possano essere utilizzati per orientare le decisioni senza mettere radicalmente in discussione le proprie fondamenta. Nel tempo questa domanda seleziona analisti, strumenti e metodologie in grado di fornire una forma sempre più sofisticata di rassicurazione. I modelli linguistici possono diventare strumenti preziosi per individuare i punti in cui il pensiero collettivo si è fermato, ma per usarli in questo modo è necessario possedere una capacità che non può essere delegata agli algoritmi, ma alla capacità di pensare il futuro senza di loro.
