Indice degli argomenti
Scegliere un modello AI oggi non è neutrale: il paradosso decisionale che ricorda il Monty Hall
Per molte imprese, la scelta di un modello di intelligenza artificiale generativa appare come un confronto tra opzioni equivalenti. Demo simili, benchmark comparabili, promesse tecnologiche convergenti. Eppure, dietro questa apparente simmetria si nasconde una dinamica più complessa: il contesto informativo è già cambiato, e con esso le probabilità di successo strategico.
L’analogia con il celebre “problema di Monty Hall” aiuta a comprendere la natura del rischio. Nel noto paradosso probabilistico, una volta aperta una porta e rivelato un esito negativo, l’intuizione suggerisce che le probabilità tra le opzioni rimanenti siano equivalenti. In realtà non lo sono. L’informazione introdotta modifica la struttura probabilistica del sistema (Selvin, 1975; Rosenhouse, 2009). Il paradosso nasce non dalla matematica, ma dall’incapacità di aggiornare correttamente le convinzioni alla luce di nuove informazioni (Tversky & Kahneman, 1974; Kahneman, 2011).
La stessa dinamica oggi caratterizza molte decisioni sull’adozione di modelli IA.
La prima scelta e l’illusione di neutralità
Le prime decisioni in ambito IA sono spesso prese in condizioni di informazione limitata. Visibilità del brand, tempismo di mercato, rapidità di sperimentazione e reputazione tecnologica influenzano le preferenze iniziali. Questa scelta iniziale, tuttavia, non diventa più solida semplicemente perché il tempo passa o perché alcune alternative vengono eliminate.
Con la maturazione dei progetti, emergono nuovi vincoli: requisiti di sicurezza, data residency, complessità di integrazione, prevedibilità dei costi, latenza, auditabilità, roadmap del fornitore. Ciascun vincolo elimina opzioni. Ciò che rimane non è un elenco neutrale di candidati, ma il risultato di un processo asimmetrico di filtraggio informato (McKinsey & Company, 2023).
Il punto critico è che questo filtraggio modifica le probabilità di successo di lungo periodo, anche se la superficie decisionale sembra invariata.
Bayesian reasoning e strategia IA
Il Monty Hall problem è un caso classico di probabilità condizionale. Quando un’opzione viene esclusa sulla base di informazioni che non erano inizialmente disponibili, la distribuzione delle probabilità si sposta. Non si “resetta”.
Nel contesto dell’IA enterprise, il ruolo della porta aperta è svolto dal processo di selezione interna. Se decine di modelli risultano non compatibili con requisiti di compliance, infrastruttura o governance, la probabilità di successo non resta equamente distribuita tra le opzioni rimanenti. Si concentra.
Il rischio è trattare la shortlist finale come un confronto 50/50. In realtà, una delle opzioni potrebbe essere il prodotto di un processo di validazione progressiva, mentre l’altra potrebbe rappresentare una scelta iniziale mai realmente rivalutata.
Opacità e asimmetria informativa
La complessità aumenta per un ulteriore motivo: gran parte del filtraggio è invisibile. Scelte sui dataset di training, obiettivi di reinforcement, trade-off architetturali, vincoli di sicurezza e dipendenze ecosistemiche raramente sono trasparenti a livello di interfaccia (Bommasani et al., 2021).
I decisori percepiscono che qualcosa è cambiato, ma faticano a formalizzare l’asimmetria. Questa opacità spiega l’oscillazione tra overconfidence e indecisione osservata in molte organizzazioni. Alcuni leader assumono che le opzioni siano intercambiabili; altri percepiscono un rischio implicito ma non riescono a giustificarlo internamente (Dietvorst et al., 2015; Burton et al., 2020).
Entrambe le reazioni derivano dalla stessa dinamica: mancato aggiornamento delle probabilità alla luce delle nuove informazioni.
Implicazioni strategiche per imprese e board
Il punto non è scegliere il “modello migliore” in senso assoluto. È riconoscere che restare ancorati alla prima decisione non è un atto neutrale. Significa assumere che le ipotesi formulate in condizioni di incertezza iniziale restino valide nonostante l’emergere di vincoli e informazioni aggiuntive.
In un contesto in cui i modelli evolvono rapidamente e le architetture di governance faticano a tenere il passo (Gartner, 2024), questa inerzia può tradursi in lock-in tecnologico o in esposizione a rischi non anticipati.
Per i consigli di amministrazione e i C-level, la disciplina decisionale diventa centrale. La scelta di un modello AI dovrebbe includere:
– rivalutazioni periodiche strutturate
– esplicitazione delle ipotesi iniziali
– mappatura dei vincoli emersi
– analisi delle dipendenze ecosistemiche
Non si tratta di cambiare modello con frequenza opportunistica, ma di verificare se le probabilità di successo strategico si siano già spostate.
Il rischio maggiore non è cambiare, ma non aggiornare
La lezione del Monty Hall problem non riguarda un rompicapo matematico. Riguarda la disciplina dell’aggiornamento. Le decisioni razionali richiedono revisione delle convinzioni quando la struttura informativa cambia, anche se l’intuizione suggerisce stabilità.
Nel contesto dell’AI, il rischio non è passare troppo spesso da un modello all’altro. È non accorgersi che il contesto competitivo, regolatorio e infrastrutturale ha già modificato le probabilità.
La sensazione di disagio che molti executive percepiscono nella scelta di un modello non è confusione tecnologica. È il segnale razionale che il sistema è diventato condizionale. E in un ambiente condizionale, ignorare l’aggiornamento equivale ad assumere un rischio implicito. (foto di Amélie Mourichon su Unsplash)
Riferimenti
Agostini, M. (2024–2025). Articoli su AI agents e architetture modulari. Medium.
Bommasani, R., et al. (2021). On the opportunities and risks of foundation models. Stanford University.
Burton, J. W., Stein, M. K., & Jensen, T. B. (2020). Algorithm aversion. European Journal of Information Systems, 29(3), 220–239.
Dietvorst, B. J., Simmons, J. P., & Massey, C. (2015). Algorithm aversion. Journal of Experimental Psychology: General, 144(1), 114–126.
Gartner. (2024). Hype cycle for artificial intelligence.
Kahneman, D. (2011). Thinking, fast and slow.
McKinsey & Company. (2023). The state of AI in 2023.
Rosenhouse, J. (2009). The Monty Hall problem.
Selvin, S. (1975). A problem in probability. The American Statistician, 29(1), 67.
Tversky, A., & Kahneman, D. (1974). Judgment under uncertainty. Science, 185(4157), 1124–1131.
© RIPRODUZIONE RISERVATA