Negli ultimi anni l’intelligenza artificiale è diventata una delle narrazioni strategiche più potenti nel mondo delle imprese. In quasi tutti i settori, i vertici aziendali stanno lanciando iniziative IA con l’obiettivo di ottenere maggiore produttività, nuovi vantaggi competitivi e nuove fonti di ricavi. La promessa è evidente: decisioni più intelligenti, operazioni più rapide e nuove forme di creazione di valore. Tuttavia, la realtà si sta rivelando più complessa di quanto molti dirigenti avessero inizialmente immaginato. Un numero crescente di analisi industriali mostra infatti che non tutti i progetti di intelligenza artificiale sono strutturalmente destinati a funzionare. Molte organizzazioni lo scoprono soltanto dopo aver investito risorse significative in infrastrutture dati, capacità di calcolo e competenze specialistiche. Diverse ricerche indicano che una quota rilevante di progetti pilota di IA non arriva mai alla piena implementazione operativa, nonostante prototipi promettenti e un iniziale entusiasmo interno (Forbes, 2026; World Economic Forum, 2026).
Quando questo accade, le imprese si trovano di fronte a un dilemma strategico. Continuare significa impegnare ulteriori risorse con prospettive sempre più incerte, mentre interrompere l’iniziativa può generare costi reputazionali, tensioni interne o frizioni politiche. In queste circostanze i leader entrano in quello che può essere definito una no-win situation, una condizione nella quale nessuna delle opzioni disponibili appare realmente vantaggiosa. Comprendere come queste situazioni emergono, e soprattutto come uscirne senza compromettere l’organizzazione, sta diventando una competenza manageriale sempre più rilevante nell’era dell’intelligenza artificiale.
Le aspettative sull’IA rimangono estremamente elevate. Diverse stime indicano che l’intelligenza artificiale potrebbe generare trilioni di dollari di valore economico nel prossimo decennio (World Economic Forum, 2026). Tuttavia, trasformare capacità tecnologica in valore organizzativo si sta rivelando molto più difficile di quanto molti dirigenti avessero previsto. Le evidenze empiriche mostrano alcuni schemi ricorrenti. Numerosi progetti pilota faticano a passare dalla fase sperimentale alla produzione. I miglioramenti di produttività risultano spesso disomogenei e più lenti del previsto. Ancora più significativo è il fatto che molte organizzazioni incontrano difficoltà nel tradurre gli insight generati dagli algoritmi in decisioni operative concrete. Secondo The Economist, nonostante gli investimenti massicci in infrastrutture e software IA, i benefici di produttività a livello macroeconomico non sono ancora pienamente visibili (The Economist, 2026). Allo stesso tempo, però, la pressione competitiva continua ad aumentare. Un sondaggio condotto da Bloomberg Intelligence tra dirigenti del settore finanziario mostra che il 75 percento ritiene che non adottare l’IA possa mettere a rischio la competitività dell’organizzazione, anche quando i ritorni economici restano incerti (Bloomberg Intelligence, 2026).
Questa combinazione di urgenza strategica e risultati ambigui crea il contesto ideale per iniziative che partono con grande slancio ma finiscono per trasformarsi in progetti difficili da giustificare e ancora più difficili da interrompere. Uno dei primi segnali di rischio emerge quando un progetto AI nasce senza un problema di business chiaramente definito. Molte organizzazioni avviano iniziative con obiettivi generici, come ottimizzare le operazioni o generare insight dai dati, senza specificare quali decisioni concrete dovrebbero cambiare. Tuttavia, l’intelligenza artificiale crea valore solo quando migliora decisioni o processi identificabili. Senza questa connessione, il progetto tende a trasformarsi in sperimentazione tecnica priva di impatto operativo. Il World Economic Forum sottolinea infatti che le trasformazioni IA di successo partono da risultati operativi chiaramente definiti (WEF, 2026).
Anche quando gli obiettivi sono chiari, molte aziende scoprono che la propria infrastruttura dati non è pronta a sostenere il progetto. L’IA richiede dati affidabili, strutturati e accessibili, ma molte organizzazioni operano ancora con sistemi legacy frammentati, dataset incoerenti o vincoli di governance che rendono difficile l’integrazione. In queste condizioni i team tecnici dedicano gran parte del tempo alla pulizia e alla riconciliazione dei dati invece che allo sviluppo dei modelli. In alcuni casi il problema è ancora più semplice: i dati necessari per addestrare modelli efficaci semplicemente non esistono.
Un ulteriore segnale emerge quando il progetto diventa politicamente difficile da cancellare. Una volta che un’iniziativa IA è stata annunciata pubblicamente, sostenuta dal top management o associata a budget rilevanti, smette di essere un semplice esperimento tecnologico e diventa un simbolo di innovazione aziendale. In queste circostanze interrompere il progetto può essere percepito come un segnale di arretramento strategico, anche quando i limiti strutturali sono evidenti.
In altri casi il problema non riguarda la tecnologia ma l’organizzazione. Questo fenomeno è spesso descritto come pilot-to-production gap: modelli di machine learning che funzionano bene in ambienti controllati ma non riescono a integrarsi nei processi operativi reali. Il punto critico raramente è puramente tecnico. I sistemi IA richiedono cambiamenti nei flussi decisionali, nella distribuzione dell’autorità e nei meccanismi di governance. Se questi cambiamenti non avvengono, gli insight generati dagli algoritmi restano scollegati dalle decisioni effettive. Il World Economic Forum osserva che la vera difficoltà dell’adozione dell’AI non consiste nello sviluppo degli algoritmi, ma nell’integrazione nei processi decisionali (WEF, 2026).
Anche le dinamiche finanziarie possono aggravare la situazione. Nei processi di innovazione di successo investimento e apprendimento evolvono insieme. Nei progetti IA in difficoltà, invece, la spesa tende ad aumentare mentre la comprensione reale del problema rimane limitata. I team ampliano il progetto introducendo nuovi dataset, modelli più grandi o maggiore capacità di calcolo, ma l’incertezza fondamentale sulla sostenibilità dell’iniziativa resta irrisolta. In questa fase entra spesso in gioco una dinamica di sunk cost, nella quale gli investimenti passati influenzano le decisioni future anche quando le evidenze suggerirebbero di riconsiderare il progetto (Sterman, 2000).
Le strutture di incentivo interne possono rendere questi problemi ancora più complessi. L’intelligenza artificiale modifica spesso il modo in cui le decisioni vengono prese e valutate. Sistemi che suggeriscono azioni basate su analisi algoritmiche possono entrare in tensione con l’autonomia professionale dei manager o con processi consolidati. In queste situazioni l’IA rischia di essere percepita non come uno strumento ma come una minaccia. Il Financial Times ha riportato che molte implementazioni di IA nelle imprese si bloccano proprio perché sistemi di incentivo e valutazione restano allineati ai modelli decisionali precedenti all’IA (Financial Times, 2026). Il risultato è un paradosso: la tecnologia funziona, ma l’organizzazione continua a operare come prima.
Quando un’iniziativa IA entra in una situazione senza uscita, la risposta più efficace raramente è una cancellazione improvvisa. L’obiettivo dovrebbe essere un’uscita strategica che preservi apprendimento e capitale organizzativo. Una prima strategia consiste nel reinterpretare l’iniziativa come esperimento piuttosto che come trasformazione fallita. L’innovazione implica inevitabilmente esplorazione e non ogni esperimento produce valore immediato. Mettere in evidenza ciò che l’organizzazione ha imparato su infrastrutture dati, processi decisionali e capacità tecnologiche consente di preservare credibilità e capitale interno.
Anche progetti non riusciti producono asset utili. Dataset puliti, pipeline dati, framework di governance e competenze tecniche possono costituire la base per iniziative successive. Riutilizzare queste risorse consente di trasformare parte dell’investimento in valore futuro. Un ulteriore passo consiste nel riorientare la discussione strategica dalla tecnologia alle decisioni. Invece di chiedersi dove applicare l’intelligenza artificiale, le organizzazioni dovrebbero chiedersi quali decisioni oggi sono lente, costose o incerte e se informazioni migliori o automazione possano migliorarle. Quando l’IA è ancorata a problemi decisionali concreti, la probabilità di generare valore aumenta significativamente.
Infine, le imprese possono ridurre il rischio di future no-win situation definendo criteri di terminazione prima di avviare nuovi progetti. Stabilire soglie chiare, come livelli minimi di qualità dei dati, milestone operative o punti di pareggio economico, permette ai leader di valutare i progetti in modo più oggettivo. Se tali condizioni non vengono raggiunte, l’organizzazione può interrompere l’iniziativa senza il conflitto politico che spesso accompagna le cancellazioni tardive.
La cultura dell’innovazione tende a celebrare la perseveranza. Nell’era dell’intelligenza artificiale, tuttavia, la capacità di fermarsi al momento giusto può essere altrettanto strategica quanto quella di investire. Le organizzazioni che trarranno maggior beneficio dall’IA non saranno necessariamente quelle che avviano il maggior numero di progetti, ma quelle capaci di distinguere tra iniziative strutturalmente promettenti e progetti destinati a rimanere intrappolati in dinamiche senza uscita. In un contesto caratterizzato da hype tecnologico, ritorni incerti e flussi di capitale enormi verso l’intelligenza artificiale, la competenza manageriale più preziosa potrebbe non essere costruire sistemi intelligenti. Potrebbe essere sapere quando non costruirli affatto. (foto di Nguyen Dang Hoang Nhu su Unsplash)
Riferimenti
Bloomberg Intelligence. (2026). AI adoption pressure reshaping European finance. https://fintech.global/2026/01/02/bloomberg-survey-shows-ai-adoption-pressure-reshaping-european-finance/
Financial Times. (2026). Why many AI projects fail to deliver real business value.
Forbes. (2026). AI productivity’s $4 trillion question: Hype, hope, and hard data. https://www.forbes.com/sites/guneyyildiz/2026/01/20/ai-productivitys-4-trillion-question-hype-hope-and-hard-data/
Sterman, J. D. (2000). Business dynamics: Systems thinking and modeling for a complex world. McGraw-Hill.
The Economist. (2026). The AI productivity boom is not here yet. https://www.economist.com/finance-and-economics/2026/02/22/the-ai-productivity-boom-is-not-here-yet
World Economic Forum. (2025). AI paradoxes: Why AI’s future isn’t straightforward. https://www.weforum.org/stories/2025/12/ai-paradoxes-in-2026/
World Economic Forum. (2026). AI bubble value gap. https://www.weforum.org/stories/2026/01/ai-bubble-value-gap/
World Economic Forum. (2026). Beyond the hype: 8 drivers for true AI transformation in the agentic age. https://www.weforum.org/stories/2026/01/beyond-the-hype-8-drivers-for-true-ai-transformation-in-the-agentic-age/
AIPRM. (2026). AI adoption statistics. https://www.aiprm.com/ai-adoption-statistics/
© RIPRODUZIONE RISERVATA