Abstract dell’elaborato del Dottor Michele Barba, studente della III edizione del Master in Risk Management, Internal Audit & Frodi – RIAF.
Modulo 2 – Risk management: fundamentals
ABSTRACT
Tanto più il modello costruito per l’analisi numerica è complesso, tanto più il suo risultato sarà vicino alla realtà, di contro, tanto più sarà complesso e tanto più risulterà difficoltoso gestirne il meccanismo e il controllo.
Quando si fa riferimento ai diversi metodi con i quali approcciarsi alla misurazione del livello di rischio, solitamente viene attribuita maggiore affidabilità e certezza ai cd. analytics, analisi di stampo numerico, relative a calcoli matematici che combinano nelle loro formule l’insieme di dati messi a disposizione, il cd. “Metodo quantitativo”.
La forza di questo metodo si fonda senz’altro sulla solidità che i risultati delle analisi posseggono, trattandosi di valutazioni numeriche e quindi oggettive. Tuttavia, per una sua applicazione efficace, tale sistema necessita di dati consolidati, ovvero di serie storiche che supportino la validità delle misurazioni, non sempre disponibili qualora l’organizzazione sia, ad esempio, tra gli early adopters di una soluzione o si muova in un contesto di mercato innovativo senza benchmark di riferimento.
Affascinante, inoltre, il paradosso che caratterizza questo metodo:
Tanto più il modello costruito per l’analisi numerica è complesso, tanto più il suo risultato sarà vicino alla realtà, di contro, tanto più sarà complesso e tanto più risulterà difficoltoso gestirne il meccanismo e il controllo.
A tal proposito, sorge spontaneo pensare all’applicazione in questo ambito di nuove tecnologie come l’AI che, applicata tramite i Big Data Analitycs (sia predictive che prescriptive), mediante l’enunciazione di un semplice quesito potrebbe elaborare una enorme mole di dati comunicandone il risultato in pochi secondi a fronte di una “fatica” della mente umana che impiegherebbe diverso tempo solo per costruirne il modello. Questo è l’approccio preferito da chi adotta una visione dei dati “rappresentativa”, considerando i dati in sé stessi il fondamento “oggettivo” dei processi di generazione della conoscenza (R. Del Gobbo, 2023) Nota 1 “Big Data doesn’t “speak for themselves”. The role of models in the dissemination of analytics for management accounting”.
Ad ogni modo, c’è un “ma”: quanto valore apporta un semplice numero eiettato direttamente dai sistemi di una macchina in modo asettico, senza che su di essa si abbia il minimo controllo dei calcoli eseguiti? Come poter analizzare le variabili di decisione utilizzate, simularne alternative, soffermarsi sulla criticità di un particolare dato, scoprire come potrebbe variare il risultato tramite what if analysis ecc.? Sono queste le domande che si pongono invece i sostenitori della visione “relazionale” dei dati, i quali riconoscono un ruolo fondamentale all’esperienza di coloro che trattano e analizzano i dati ai fini del loro efficace utilizzo (R. Del Gobbo, 2023); in questa prospettiva è la costruzione stessa del modello, grazie alla vera data expertise, ad apportare valore alle decisioni.
Se l’obiettivo della quantificazione è agire quindi sul controllo, per cercare di non subire il fenomeno, costruendo modelli che diano valore alle decisioni prese in azienda, è bene che i decisori siano anche informati sul come si è potuti giungere a tali risultati, auspicabilmente non rispondendo loro:
“Lo chieda all’AI”.
Vuoi approfondire ulteriormente?
Il Master in Risk Management, Internal Audit & Cybersecurity mira a formare figure professionali che siano in grado di interpretare e gestire le più recenti dinamiche normative e di mercato attinenti alla corporate governance. Grazie all’utilizzo di casi aziendali, verranno contestualizzati e analizzati i temi nelle diverse realtà: dalle aziende quotate alle banche, dalle grandi alle piccole/medie imprese.