
L’intelligenza artificiale entra in una nuova fase di regolamentazione con l’introduzione degli standard internazionali ISO/IEC 42001 e ISO/IEC 42005. Il primo definisce i requisiti per creare un sistema di gestione dell’IA responsabile, garantendo controllo, trasparenza e tracciabilità dei processi automatizzati. Il secondo, invece, introduce il modello di AI System Impact Assessment, utile per valutare e documentare i rischi connessi ai sistemi di intelligenza artificiale, dalla protezione dei dati alla sicurezza informatica, fino agli impatti etici e sociali.
Di questi temi si è discusso nel convegno ospitato all’Università Suor Orsola Benincasa di Napoli, che ha riunito esperti, professionisti e studiosi per confrontarsi sulle nuove sfide della governance dell’IA.
A spiegarci nel dettaglio come queste norme cambieranno l’approccio delle aziende è il CEO di Certifica, il Dottor Salvatore Scutiero, che ha avuto il ruolo di relatore all'interno di tale evento:
"Oggi abbiamo cercato di fare un focus su tutto ciò che rappresenta l'intelligenza artificiale e sui rischi che può portare. Una maggiore attenzione sull'applicazione di queste tecniche che pervadono la società è necessaria. L'obiettivo è dare una linea guida, delle indicazioni tecniche per individuare e mitigare i rischi all'applicazione dell'intelligenza artificiale. Gli aspetti deleteri di un errato uso oggi sono visti in maniera miope. Non ci si concentra sui problemi reali. Allora il punto è, in che modo ci si mette nelle condizione di adottare quelle tecniche necessarie per mitigare questo rischio: oggi abbiamo cercato di focalizzare la nostra attenzione su questa tematica".

