Governance e quantificazione del rischio. La gestione delle informazioni

scritto da il 07 Ottobre 2022

Post di Paolo Brambilla, Consigliere dell’Ordine dei Giornalisti di Lombardia –

Già nel 2015, in un suo articolo rivolto agli imprenditori francesi sul sito di Cadre DirigentAlexander Kopriwa, specialista di sviluppo internazionale per i mercati high-tech di Ontonix, richiamava l’attenzione dei lettori sul rischio di portare la propria azienda a scontrarsi con un iceberg, come accaduto al Titanic nel 1912.

Oggi, come allora, la rapida proliferazione della tecnologia rilascia nel contesto in cui operiamo numerosi nuovi “iceberg” dai quali è necessario tenersi ben distanti. Ma come evitarli?

Governance e quantificazione del rischio, un processo complesso e costoso

“Per i tecnocrati la tecnologia è la risposta divina a tutti i nostri problemi nel mondo degli affari, delle banche, della logistica, della produzione o di qualsiasi altro campo” commentava Alexander Kopriwa “Persone, reti, mercati e processi sono risucchiati in un sistema di interdipendenze critiche. Una catena che si spezza nel punto più debole, con conseguenze e danni senza precedenti.“

Senza una visione d’insieme, si finisce con il privilegiare la strategia dei “compartimenti stagni”: la mente umana preferisce suddividere i problemi in piccole parti, più facilmente gestibili. Anche il mondo accademico preferisce spesso il pensiero lineare, basato su certezze consolidate, quando invece la velocità, la complessità e il numero delle interazioni nel terzo millennio sono in costante aumento e rendono sempre più difficile comprendere i cambiamenti e anticiparli davvero.

La riduzione della complessità riduce l’esposizione al rischio

Quando la governance va fuori controllo, i sistemi possono improvvisamente crollare irrazionalmente, senza una logica apparente, e generare conseguenze imprevedibili. Esempi estremi sono stati Chernobyl o Fukushima, ma anche nella nostra vita di tutti i giorni le aziende dipendono da eventi esterni provocati dai mercati, dalla concorrenza, dai fornitori e dai clienti. La crescita della complessità incide sull’efficienza e sul rapporto costi-benefici, e più cresce la quantità di tecnologia utilizzata, più aumenta la fragilità e si aggrava il problema.

Mantenere criteri “quantitativi” sull’ecosistema del business digitale è obbligatorio per padroneggiarne e identificarne la complessità. Sono necessarie sia visione sia una forte volontà per impedire alla “nave” di procedere “pari avanti tutta” in acque a rischio di iceberg.

Immagine di Simon Lee per Unsplash

Immagine di Simon Lee per Unsplash

La complessità può essere misurata, quantificata e gestita in tre modi

1 – “top down from the outside”: questa soluzione semplice ed economica, applicata ormai da tutti, diagnostica rapidamente grandi iceberg nascosti sfruttando i dati degli indicatori di processo (KPI) esistenti. Un KPI Key Performance Indicator è un indice che misura l’efficacia con cui un’azienda o un team stanno adempiendo agli obiettivi prefissati. L’approccio top-down alla gestione è una di queste strategie, in cui il processo decisionale avviene al livello più alto e viene quindi comunicato al resto del team.

2 – Quantificare la complessità in loco (asincrona o in tempo reale): questa soluzione è l’ideale per sistemi critici o dati altamente riservati e può essere integrata con qualsiasi piattaforma di gestione (sistema ERP, database, Data Warehouse, sistema di Business Intelligence o sistema di gestione del flusso di lavoro).

Importante è anticipare la rilevazione delle anomalie nei sistemi complessi senza utilizzare il Machine Learning: non sempre ci si può concedere il lusso di riscontrare i molteplici errori necessari per insegnare a un software a riconoscerli.

3 – Esplorare i dati della complessità con l’ausilio di supercomputer. Questa, ad esempio, è la soluzione offerta da alcune aziende per esplorare ecosistemi molto grandi al fine di migliorarne la governance e la comprensione del rischio da un punto di vista strategico.

Queste considerazioni sono particolarmente vere per i mega progetti che coinvolgono più stakeholder, che possono essere geograficamente dispersi e che interessano una moltitudine di beneficiari. Tali progetti sono con molta leggerezza definiti “troppo grandi per fallire” …  “troppo complessi per fallire” (TCTF). Invece sono proprio questi progetti altamente complessi, che introducono tecnologie innovative e devono rispondere ai cambiamenti organizzativi, a rivelarsi i più fragili.

La gestione delle informazioni in campo finanziario

La gestione delle informazioni è un termine ampio che comprende politiche e procedure per la gestione e la condivisione centralizzata delle informazioni tra individui, organizzazioni o sistemi di informazione diversi in ogni fase del ciclo di vita delle informazioni, dal momento stesso in cui si originano, ai vari passaggi intermedi, fino all’utilizzatore finale.

Gli Alternative Data

Il progetto FinScience attraverso gli Alternative Data riesce a monitorare non solo i segnali con che già hanno forte impatto finanziario (i cosiddetti “main signal”), ma con un approccio bottom up anche quelli nascenti (“emerging o weak signal”) che, se opportunamente analizzati e pesati, forniscono preziosi insight su fenomeni ancora non evidenti, ma con i presupposti di diventarlo, a livello di mercato finanziario. Questi segnali sono nascosti dalla presenza di dati che hanno maggiore visibilità e risultano perciò difficili da cogliere senza l’ausilio di un software appositamente costruito e dimensionato, in grado anche di eliminare l’inevitabile rumore di fondo (e le fake news).

Un sondaggio sull’intelligenza artificiale nei servizi finanziari, pubblicato nel febbraio 2020 dalla Judge Business School e dal World Economic Forum dell’Università di Cambridge, ha rivelato che la maggior parte delle aziende fintech usano “l’AI per generare nuove intuizioni da set di dati non tradizionali”. La fonte più utilizzata: i social media.

Secondo i risultati di un’indagine globale sul settore degli hedge fund, presentata nel maggio 2020 dalla Alternative Investment Management Association e da SS&C Technologies, il 53% utilizza dati alternativi e fa uso di questo tipo di dati da molti anni (fonte: alternativedata.org). Il personale nei fondi dedicato ai dati alternativi è cresciuto del 450% negli ultimi 5 anni (fonte: Morgan Stanley e Oliver Wyman).