Google, yapay zeka destekli güvenlik aracı Big Sleep ile siber güvenlikte yeni bir adım attı. DeepMind ve Project Zero ekiplerinin ortak geliştirdiği LLM tabanlı sistem, ilk fazında açık kaynak projelerde toplamda 20 güvenlik açığı tespit etti. Hedef alınan yazılımlar arasında FFmpeg ve ImageMagick gibi sıkça kullanılan medya kütüphaneleri yer aldı.
Google Güvenlik Başkan Yardımcısı Heather Adkins, bulguları sosyal medya platformu X üzerinden duyurdu. Güvenlik açıklarının detayları henüz paylaşılmadı; zira yama süreçleri tamamlanmadan bilgilerin gizli tutulması sektörde standart bir uygulama olarak görülüyor.
Şirket, tüm açıkların tamamen Big Sleep tarafından keşfedildiğini ve yeniden üretildiğini vurguluyor. Nihai raporların doğruluğu için insan uzmanların sürece son aşamada dahil edildiği belirtiliyor. Google Mühendislik Başkan Yardımcısı Royal Hansen, bu başarıyı “otomatik güvenlik açığı tespitinde dönüm noktası” olarak değerlendirdi.
Big Sleep, yapay zekanın güvenlik taramalarında sadece teoride değil, pratikte de etkili olabileceğini kanıtlıyor. Ancak sektör içinde bazı endişeler de mevcut. Geliştiriciler, yapay zeka araçlarının zaman zaman “halüsinasyon” üreterek sahte açıklar bildirdiğini belirtiyor. Bu tür yanıltıcı çıktılar, “AI slop” olarak adlandırılıyor ve bug bounty camiasında tartışmalara yol açıyor.
Yine de uzmanlar, Big Sleep gibi sistemlerin arkasındaki mühendislik kalitesine dikkat çekiyor. RunSybil’in kurucu ortağı Vlad Ionescu, “Big Sleep gerçek, güçlü bir proje. DeepMind gibi bir ekiple geliştiriliyor,” diyerek sistemin potansiyeline vurgu yaptı.
Uzmanlara göre, yapay zeka destekli güvenlik çözümleri gelişmeye devam edecek, ancak bunların sektörel olarak nasıl entegre edileceği ve hangi standartlara göre değerlendirileceği soruları hâlâ yanıt bekliyor.