Skip to main content

Soluzioni

Analisi dei rischi del sistema di IA

Per valutare i potenziali rischi associati all'IA generativa e assicurare la compliance alle disposizioni contenute nel Regolamento (UE) 2024/1689 (c.d. AI Act), può essere utile per le aziende condurre un'analisi dei rischi del proprio sistema di IA. L’analisi consente di classificare i rischi del sistema di IA e individuare le eventuali lacune nei controlli implementati per conformarsi ai requisiti normativi.

L’AI Act dell’Unione europea è un atto legislativo completo proposto dalla Commissione europea ed approvato dal Parlamento europeo e dal Consiglio, volto a regolamentare l'intelligenza artificiale all'interno del territorio dell’Unione. Classifica le applicazioni di intelligenza artificiale in quattro gruppi distinti a seconda del livello di rischio (inaccettabile, alto, limitato e minimo) e impone requisiti stringenti ai sistemi a rischio alto per garantire sicurezza, trasparenza e responsabilità. 

Classificazione dei rischi

Classifica il rischio delle applicazioni di IA in quattro livelli: inaccettabile, alto, limitato o minimo.

Valutazione dei controlli

Valuta i controlli implementati rispetto ai requisiti normativi, identifica le potenziali lacune e suggerisce le azioni di remediation.

Altri requisiti

Analisi facoltativa di requisiti aggiuntivi, come l’IA per finalità generali (GPAI) e l'alfabetizzazione all’IA.

Marsh aiuta le aziende ad analizzare i requisiti per la classificazione dei rischi per le loro applicazioni di IA ai sensi dell'AI Act. La legge è entrata in vigore il 1° agosto 2024 e sarà pienamente applicabile due anni più tardi, il 2 agosto 2026, con alcune eccezioni:

  • I divieti e gli obblighi di alfabetizzazione in materia di IA sono entrati in vigore il 2 febbraio 2025
  • le regole di governance e gli obblighi per i modelli di IA per finalità generali entreranno in vigore il 2 agosto 2025
  • le norme per i sistemi di IA ad alto rischio, integrati nei prodotti disciplinati dalla normativa, prevedono un periodo transitorio prorogato fino al 2 agosto 2027

A seconda della classificazione del rischio, si applicheranno requisiti specifici. Gli specialisti di Marsh operano al fianco delle aziende per aiutarle a valutare in che misura soddisfano i requisiti, identificare eventuali lacune e raccomandare le misure correttive più appropriate per colmare tali lacune.

Perché è utile l'analisi dei rischi del sistema di IA?

Marsh utilizza strumenti specializzati e questionari strutturati per identificare, valutare e mitigare i rischi associati ai rischi del sistema di IA, con una serie di prerogative:

  • Classificazione del rischio del sistema di IA ai sensi dell’AI Act dell'UE
  • Valutazione delle lacune rispetto ai requisiti normativi di controllo
  • Suggerimento di azioni di remediation da includere nella roadmap delle attività relative all'IA
  • Processi documentati attraverso tool e report dedicati
  • Analisi facoltativa di altri requisiti normativi, per esempio relativi alla GPAI o all'alfabetizzazione in materia di IA

Contattateci

Per ulteriori informazioni sul nostro servizio di analisi dei rischi legati all’IA, contatta il tuo rappresentante locale Marsh o uno dei nostri esperti.

Gregory Van Den Top

Gregory van den Top

AI Practice Leader, Marsh Advisory Europe

  • Netherlands

Carlotta Jacomini

Carlotta Jacomini

Compliance Risk Advisory Managing Consultant, Marsh Advisory Europe

  • Italy

Valentina Laudiero

Valentina Laudiero

Compliance Risk Advisory Senior Consultant, Marsh Advisory Europe

  • Italy

Placeholder Image

Matteo Mancini

Head of Business Resilience, Marsh Advisory

  • Italy