Un nuovo studio condotto presso l’Università dell’Illinois Urbana-Champaign (UIUC) solleva questioni cruciali sull’uso dell’intelligenza artificiale nella scoperta e nello sfruttamento delle vulnerabilità del sistema. I modelli linguistici dell’intelligenza artificiale, in particolare il GPT-4 di OpenAI, possono sfruttare con successo le vulnerabilità reali descritte negli avvisi CVE, riferiscono i ricercatori.
L’indagine, che ha coinvolto 600 sviluppatori intervistati tra febbraio e marzo 2024, ha evidenziato che GPT-4 è stato in grado di sfruttare l’87% delle vulnerabilità analizzate, rispetto allo 0% di altri scanner e modelli di vulnerabilità open source testati. Questa scoperta solleva preoccupazioni sulla potenziale manipolazione dell’intelligenza artificiale per scopi dannosi nel campo della sicurezza informatica.
Un aspetto particolarmente inquietante emerso dallo studio è l’utilizzo di modelli di intelligenza artificiale per identificare e sfruttare i cosiddetti “Vulnerabilità di un giorno”, ovvero quelle vulnerabilità che sono state divulgate ma non ancora risolte. Ciò evidenzia la necessità di una risposta tempestiva e proattiva da parte delle organizzazioni proteggere i vostri sistemi da possibili attacchi.
Lo hanno sottolineato anche i ricercatori la crescente diffusione dei giochi live-service, caratterizzati da aggiornamenti regolari e acquisti in-app. Ciò solleva la questione della necessità di implementare solide misure di sicurezza e aggiornamenti regolari per proteggere i sistemi da potenziali minacce.
I ricercatori lo credono limitare l’accesso alle informazioni sulla sicurezza non è una soluzione efficace. Piuttosto, sottolineano l’importanza di adottare misure di sicurezza proattive e di mantenere una stretta collaborazione tra sviluppatori, ricercatori e organizzazioni per mitigare i rischi associati all’uso dell’intelligenza artificiale nella sicurezza informatica.