GPT-4, per essere un hacker basta leggere i bollettini di sicurezza – .

GPT-4, per essere un hacker basta leggere i bollettini di sicurezza – .
Descriptive text here

Un nuovo studio condotto presso l’Università dell’Illinois Urbana-Champaign (UIUC) solleva questioni cruciali sull’uso dell’intelligenza artificiale nella scoperta e nello sfruttamento delle vulnerabilità del sistema. I modelli linguistici dell’intelligenza artificiale, in particolare il GPT-4 di OpenAI, possono sfruttare con successo le vulnerabilità reali descritte negli avvisi CVE, riferiscono i ricercatori.

L’indagine, che ha coinvolto 600 sviluppatori intervistati tra febbraio e marzo 2024, ha evidenziato che GPT-4 è stato in grado di sfruttare l’87% delle vulnerabilità analizzate, rispetto allo 0% di altri scanner e modelli di vulnerabilità open source testati. Questa scoperta solleva preoccupazioni sulla potenziale manipolazione dell’intelligenza artificiale per scopi dannosi nel campo della sicurezza informatica.

Un aspetto particolarmente inquietante emerso dallo studio è l’utilizzo di modelli di intelligenza artificiale per identificare e sfruttare i cosiddetti “Vulnerabilità di un giorno”, ovvero quelle vulnerabilità che sono state divulgate ma non ancora risolte. Ciò evidenzia la necessità di una risposta tempestiva e proattiva da parte delle organizzazioni proteggere i vostri sistemi da possibili attacchi.

Lo hanno sottolineato anche i ricercatori la crescente diffusione dei giochi live-service, caratterizzati da aggiornamenti regolari e acquisti in-app. Ciò solleva la questione della necessità di implementare solide misure di sicurezza e aggiornamenti regolari per proteggere i sistemi da potenziali minacce.

I ricercatori lo credono limitare l’accesso alle informazioni sulla sicurezza non è una soluzione efficace. Piuttosto, sottolineano l’importanza di adottare misure di sicurezza proattive e di mantenere una stretta collaborazione tra sviluppatori, ricercatori e organizzazioni per mitigare i rischi associati all’uso dell’intelligenza artificiale nella sicurezza informatica.

 
For Latest Updates Follow us on Google News
 

NEXT l’azienda avverte, è una truffa – .