Google ricerca di bug utilizzando l'intelligenza artificiale

Google ha introdotto un nuovo sistema di rilevamento bug con intelligenza artificiale chiamato Big Sleep che utilizza LLM (modelli di linguaggio di grandi dimensioni) per analizzare il codice. Il Vice Presidente della Sicurezza di Google, Heather Adkins, ha dichiarato che il sistema ha già contribuito a identificare 20 nuove vulnerabilità, alcune delle quali classificate come critiche. Il sistema è stato applicato a software open-source, tra cui cURL, FFmpeg, ImageMagick, Envoy, libjpeg, gRPC, ecc. L'IA ha rilevato errori che gli esseri umani non potevano trovare, inclusi i limiti degli array, l'uso dopo la liberazione, ecc.
Il sistema è stato sviluppato da DeepMind e dagli hacker di Project Zero, che sono impegnati nei propri controlli di sicurezza dei servizi Google (Blue Team). Google promette di rendere alcuni degli strumenti disponibili per la comunità per sostenere la sicurezza dei progetti open-source.
Allo stesso tempo, l'azienda incoraggia altre corporazioni a investire in soluzioni di intelligenza artificiale simili per il rilevamento dei bug.
I sistemi di rilevamento dei bug con intelligenza artificiale non sono nuovi. Nonostante il fatto che attualmente siano in grado di "hallucinating", rilevando bug che non possono essere riprodotti nella realtà o mancando vulnerabilità critiche, questi sistemi diventeranno senza dubbio popolari nel prossimo futuro.
Fonte: techcrunch.com