Il Rapporto AI SICURA è stato realizzato con il contributo della Luiss Business School.
La Cyber Security Foundation, la prima fondazione non profit italiana dedicata al mondo cyber, lancia “AI SICURA” l’iniziativa volta a valutare come l’Italia stia gestendo la sicurezza legata all’Intelligenza Artificiale, con l’intento di un confronto importante per il futuro digitale del Paese.
Il progetto ha l’obiettivo di censire i livelli di protezione attuali per proporre soluzioni concrete e operative.
Al centro del progetto, presentato ufficialmente a Roma nella location di Villa Blanc, c’è un’alleanza pubblico–privato per trasformare la sicurezza dell’AI in un vantaggio competitivo nazionale, coinvolgendo Pubblica Amministrazione, imprese, accademia e comunità di esperti.
AI SICURA, il cuore operativo
Il cuore operativo del progetto è rappresentato da un questionario nazionale rivolto ai Chief Information Security Officer (CISO) e ai responsabili della sicurezza. L’obiettivo dell’indagine è quello di rilevare la sicurezza sui rischi, le architetture e modelli adottati, le minacce più temute e le strategie difensive con il livello di preparazione del Paese.
I risultati confluiranno nel “Rapporto sulla Sicurezza dell’AI in Italia”, successivamente corredato da un indice di maturità specifico, raccomandazioni strategiche e strumenti pratici per un’adozione dell’AI più sicura.
“Con AI SICURA vogliamo misurare con dati reali lo stato della sicurezza dell’intelligenza artificiale in Italia e abilitare un’alleanza pubblico–privato che la trasformi in un vantaggio competitivo, perché l’AI può essere il nostro più grande alleato o il nostro più grande rischio e la differenza la facciamo noi”, ha spiegato Fabio Battelli, Direttore del settore Intelligenza Artificiale per la Cyber Security Foundation.
La Luiss Business School nell’indagine avrà un ruolo fondamentale contribuendo alla definizione del metodo di indagine e all’interpretazione dei risultati del questionario.
”La Luiss Business School sta sviluppando studi e approfondimenti accademici sui temi della Information Safety, distinguendola dalla tradizionale Information Security, per affrontare le sfide specifiche poste dai contenuti generati dall’Intelligenza Artificiale. – ha dichiarato il Professor Cristiano Busco, Direttore BU Consulting, Luiss Business School – Questo lavoro, che sarà integrato nel progetto AI SICURA, ha portato alla definizione di una tassonomia che classifica l’informazione come “sicura” solo se corretta, aperta e benigna, offrendo linee guida essenziali per la governance del rischio e garantendo un impatto positivo sull’ecosistema sociale ed economico”.
Per quanto riguarda il versante tecnologico, il progetto è affidato a Palo Alto Networks, partner dell’iniziativa, chiamato a portare nel Rapporto la prospettiva delle soluzioni di cyber security più avanzate e delle minacce emergenti. “Palo Alto Networks è onorata di essere partner tecnologico della Fondazione. In questo ruolo, intendiamo contribuire allo sviluppo del Rapporto AI SICURA con la nostra profonda conoscenza delle minacce emergenti e le prospettive sulle soluzioni di cybersecurity più avanzate, essenziali non solo per proteggere gli ecosistemi di intelligenza artificiale, ma anche per sfruttare l’AI stessa per la difesa affinché diventi un reale vantaggio competitivo per ogni azienda” – ha sottolineato Francesco Seminaroti, Sales Director Palo Alto.
All’evento di presentazione, a cui sono intervenuti tra gli altri anche i ricercatori Mattia Siciliano e Giovanna Capilli, è stato inoltre mostrato in anteprima un prototipo della piattaforma a supporto della gestione dei self-assessment.
Uno strumento che consentirà successivamente di visualizzare i benchmark nazionali per i diversi settori produttivi e di favorire un confronto continuo all’interno della comunità dei responsabili della sicurezza.
Fonte: Agenzia DIRE
Photo Credit: Depositphotos.