
By Gregory van den Top ,
AI Practice Leader, Marsh Advisory Europe
01/10/2025 · 5 minuti di lettura
L'intelligenza artificiale (AI) ha una lunga storia che risale alla metà del XX secolo, quando pionieri come Alan Turing e John McCarthy gettarono le basi del machine learning e dei sistemi intelligenti. Da allora l’AI si è evoluta, passando da sistemi semplici basati su regole ad algoritmi complessi in grado di apprendere da grandi quantità di dati. In Europa, le implicazioni dell'AI per le aziende sono enormi. Le aziende utilizzano l’AI per aumentare l'efficienza operativa, migliorare la customer experience e promuovere l'innovazione.
Tuttavia, l'intelligenza artificiale solleva anche importanti considerazioni per le aziende in materia di privacy dei dati, uso etico e compliance normativa. Nell’UE, l’adozione delle tecnologie di AI comporta il rispetto di un quadro giuridico particolarmente complesso, incentrato sulla trasparenza, la responsabilità e la protezione dei diritti individuali.
Per implementare con successo una strategia di adozione dell’AI in azienda e gestire i rischi associati, si possono seguire i seguenti step:
1. Definizione di un responsabile AI
Può accadere che all'interno dell’azienda la gestione dei rischi AI non sia chiara (cfr. figura 1) perché la responsabilità è distribuita tra diverse funzioni, come l'IT, la compliance e le operations, senza una specifica designazione dell’ultimo e principale responsabile. Questa ambiguità può portare a una comunicazione frammentaria e ad avere diversi team con priorità contrastanti che non riescono a collaborare in modo efficace.
* Disponibile solo in lingua Inglese
Fonte: Airmic (sondaggio condotto presso i membri Airmic, 27 agosto 2024).
Per risolvere questi problemi, il risk management dovrebbe definire l’owner e il responsabile del rischio AI. A tale scopo si può costituire un team interfunzionale di governance dell'AI che includa rappresentanti dei dipartimenti principali, affinché il processo decisionale integri tutti i diversi punti di vista.
2. Valutazione dei potenziali rischi legati all'AI
È essenziale riconoscere i rischi associati all'implementazione dell'AI:
Le aziende devono valutare l'impatto dell'intelligenza artificiale sul proprio profilo di rischio. Per esempio, fare affidamento su ampi set di dati per l'addestramento dei modelli di AI può aumentare il rischio di non conformità alle leggi sulla protezione dei dati, soprattutto se le informazioni sensibili vengono gestite in modo improprio o non sono adeguatamente protette.
Inoltre, i bias algoritmici possono determinare risultati iniqui o discriminatori, con potenziali danni alla reputazione aziendale e conseguenti ripercussioni legali. La non conformità normativa è un tema di primaria importanza, poiché le aziende devono orientarsi tra nuove leggi e linee guida sull’uso dell'AI, in particolare nell'UE dove è in vigore una delle normative più rigorose sulla protezione dei dati. I cambiamenti causati dall'AI necessitano una rivalutazione completa delle strategie esistenti di gestione dei rischi per affrontare le sfide uniche sollevate dalle tecnologie di AI.
Per mitigare e trasferire efficacemente i rischi associati all'implementazione dell'AI, il risk management dovrebbe innanzitutto effettuare una valutazione approfondita dei rischi AI che prenda in esame il processo di gestione dei dati, l'equità algoritmica e la compliance normativa. Inoltre, è necessario analizzare in che modo tali rischi influiscono sul portafoglio assicurativo esistente, assicurandosi che le coperture e i limiti siano sufficienti. Si dovrebbe quindi prendere in considerazione la possibilità di trasferire eventuali rischi rimanenti sull'assicurazione. Affrontando in modo proattivo i rischi dell'AI, il risk manager può aiutare l’azienda a sfruttare i vantaggi dell'AI riducendo al minimo i potenziali svantaggi.
3. Attuazione di programmi di formazione sull'AI e di una strategia di comunicazione
Un programma completo di formazione e comunicazione è essenziale per articolare i benefici e i risultati attesi delle iniziative di AI, fornendo al contempo al personale le competenze necessarie per lavorare a fianco dei sistemi di AI. Parallelamente, i meccanismi di feedback consentono un dialogo e un adeguamento continui tra il risk management e l'azienda.
La mancanza di formazione e comunicazione può ostacolare le iniziative di AI creando nei dipendenti confusione, resistenza e scarso coinvolgimento. Se il personale non è adeguatamente informato sullo scopo dell'AI, può percepirla come una minaccia per il proprio lavoro e non come un'opportunità. Inoltre, se i dipendenti non hanno dimestichezza con l'intelligenza artificiale, possono ritornare a processi obsoleti, con conseguenti inefficienze e mancanza di opportunità di innovazione.
Un programma di formazione e comunicazione completo e interfunzionale permette ai dipendenti di acquisire le conoscenze e le skills necessarie per realizzarsi in un ambiente potenziato dall’AI. È opportuno prevedere sessioni introduttive sui fondamenti dell'AI, le sue applicazioni all'interno dell'azienda e gli specifici vantaggi che apporta ai diversi ruoli.
4. Monitoraggio dell'impatto dell'AI
Stabilire metriche per monitorare l'impatto dell'intelligenza artificiale nell’azienda è essenziale per valutarne l'efficacia e assumere decisioni informate, nel rispetto della legislazione dell'UE sulla protezione dei dati e l'uso etico dell'AI.
Valutare l'uso e l'efficienza dell'AI nelle aziende è fondamentale per garantire che le nuove tecnologie offrano i benefici previsti, in conformità con le normative applicabili.
Senza un adeguato processo di valutazione, le aziende rischiano di implementare sistemi di AI che non riescono a raggiungere gli obiettivi aziendali né fornire un ritorno sull'investimento. Per esempio, può essere implementato un chatbot di customer service basato sull’AI per migliorare l'esperienza utente, ma se non viene addestrato o monitorato in modo efficace, rischia di portare a un aumento della frustrazione e dell'insoddisfazione dei clienti, finendo per danneggiare la reputazione del marchio. Inoltre, la mancata valutazione delle prestazioni degli algoritmi di AI può involontariamente perpetuare pregiudizi o indurre a prendere decisioni basate su dati obsoleti, causando problemi di natura etica con potenziali risvolti legali.
A monte di un robusto programma di monitoraggio delle iniziative di AI, le aziende devono stabilire KPI in linea con gli obiettivi strategici, per esempio:
Il risk management può quindi collaborare con gli analisti di dati e i team IT per sviluppare un framework per la raccolta e l'analisi dei dati al fine di monitorare il programma. Il framework dovrebbe includere relazioni periodiche, per esempio analisi mensili o trimestrali, per valutare le prestazioni dei servizi di AI rispetto ai KPI. Inoltre, il risk management dovrebbe favorire l'integrazione di cicli di feedback che consentano un miglioramento continuo sulla base delle informazioni ottenute dal monitoraggio.
Il risk manager deve assumersi il ruolo di guida dell’azienda nel percorso trasformativo dell'AI per sfruttarne i potenziali benefici per l’azienda e la società. Un framework efficace di governance dell'AI combinato a un processo di identificazione dei potenziali rischi, un’adeguata formazione dei dipendenti e il monitoraggio delle metriche di performance consentono al risk management di gestire efficacemente i problemi che possono presentarsi e ridurre al minimo i rischi legati alla privacy dei dati nell'AI, ai bias algoritmici e alla compliance normativa.