Yapay zeka ne kadar dost ne kadar düşman olacak?
Yapay zeka (AI) son günlerde heyecan verici gelişmeler ile her sektöre yeni bir bakış açısı kazandırmaya başladı.
Bu sektörlerden biri de siber güvenlik.
Dijital güvenlik şirketi ESET, yayımladığı yeni rapor ile yapay zekanın siber güvenlik alanına getirdiği riskleri ve fırsatları gözler önüne serdi.
ESET’in yapay zeka ve siber güvenlik üzerine yayımladığı rapor, bu teknolojinin hem fırsatlar hem de riskler barındırdığını gösteriyor. Yapay zekanın siber güvenlik alanında sunduğu çözümler, beceri eksikliklerini doldurabilir ve tehdit aktörlerine karşı daha güçlü bir savunma mekanizması oluşturabilir. Ancak, yapay zekanın kötü amaçlı kullanımları da göz ardı edilmemelidir. Hem saldırganlar hem de savunucular için yapay zekanın sınırlarını anlamak ve bu teknolojiye uygun güvenlik önlemleri geliştirmek, gelecekte siber güvenliğin temel taşlarından biri olacak.
Yapay Zekanın Siber Güvenlikteki Rolü
Büyük dil modelleri (LLM’ler), dünyanın dört bir yanındaki yönetim kurulu odalarının yapay zeka konuşmalarıyla çalkalanmasının nedeni olabilir ancak teknoloji yıllardır başka şekillerde de etkili bir biçimde kullanılıyor. ESET, yapay zekayı ilk olarak çeyrek asır önce makro virüslerin tespitini iyileştirmek amacıyla kullanmaya başladı. Günümüzde güvenlik ekipleri, üç ana etken sayesinde etkili yapay zeka tabanlı araçlara her zamankinden daha fazla ihtiyaç duyuyor:
- Beceri Eksikliği: Son sayıma göre, Avrupa’da 348.000 ve Kuzey Amerika’da 522.000 olmak üzere dünya genelinde yaklaşık dört milyon siber güvenlik uzmanı açığı bulunuyor. Yapay zeka, 7 gün 24 saat çalışabilir ve güvenlik uzmanlarının gözden kaçırabileceği kalıpları tespit edebilir.
- Tehdit Aktörleri: Siber güvenlik ekipleri eleman bulmakta zorlanırken rakipleri de güçlenmeye devam ediyor. Bir tahmine göre, siber suç ekonomisi 2025 yılına kadar dünyaya yıllık 10,5 trilyon dolara mal olabilir. Tehdit aktörleri, saldırı başlatmak için ihtiyaç duydukları her şeyi hazır “hizmet olarak” teklifler ve araç setleri halinde bulabilirler.
- Yüksek Riskler: Dijital yatırımlar yıllar içinde arttıkça sürdürülebilir büyümeyi ve rekabet avantajını desteklemek için BT sistemlerine olan güven de artmıştır. Ağ savunucuları, siber tehditleri önleyemez ya da hızla tespit edip kontrol altına alamazlarsa kurumlarının büyük mali ve itibar kaybına uğrayabileceğini biliyor. Günümüzde bir veri ihlalinin maliyeti ortalama 4,45 milyon dolar. Ancak hizmet kesintisi ve veri hırsızlığı içeren ciddi bir fidye yazılımı ihlali bunun çok daha fazlasına mal olabilir. Bir tahmine göre sadece finans kurumları 2018’den bu yana hizmet kesintisi nedeniyle 32 milyar dolar kaybetti.
Yapay Zeka Güvenlik Ekipleri Tarafından Gelecekte Nasıl Kullanılabilir?
- Tehdit İstihbaratı: LLM destekli GenAI asistanları, analistler için temel noktaları ve eyleme geçirilebilir çıkarımları sade bir dille özetlemek için yoğun teknik raporları analiz ederek karmaşık olanı basitleştirebilir.
- Yapay Zeka Asistanları: BT sistemlerine yapay zeka “yardımcı pilotları” yerleştirmek, kuruluşları saldırıya maruz bırakacak tehlikeli yanlış yapılandırmaları ortadan kaldırmaya yardımcı olabilir. Bu, bulut platformları gibi genel BT sistemleri için olduğu kadar güvenlik duvarları gibi karmaşık ayarların güncellenmesini gerektirebilecek güvenlik araçları için de işe yarayabilir.
- SOC Üretkenliğini Güçlendirmek: Günümüzün Güvenlik Operasyon Merkezi (SOC) analistleri, gelen tehditleri hızla tespit etmek, yanıtlamak ve kontrol altına almak için büyük bir baskı altında. Saldırı yüzeyinin büyüklüğü ve uyarı üreten araçların sayısı çoğu zaman bunaltıcı olabiliyor. Yapay zeka, bu tür uyarıları bağlamsallaştırarak ve önceliklendirerek ve hatta muhtemelen küçük uyarıları çözerek yükü hafifletebilir.
- Yeni Tespitler: Tehdit aktörleri taktiklerini, tekniklerini ve prosedürlerini (TTP’ler) sürekli olarak geliştirmektedir. Ancak yapay zeka araçları, risk göstergelerini (IoC’ler) kamuya açık bilgiler ve tehdit yayınlarıyla birleştirme yaparak en yeni tehditleri tarayabilir.
Yapay Zeka Siber Saldırılarda Nasıl Kullanılıyor?
- Sosyal Mühendislik: GenAI’ın en belirgin kullanım alanlarından biri, tehdit aktörlerinin büyük ölçekte son derece ikna edici ve neredeyse gramatik olarak mükemmel kimlik avı kampanyaları oluşturmasına yardımcı olmaktır.
- BEC ve Diğer Dolandırıcılıklar: GenAI teknolojisi, belirli bir kişi ya da kurumsal kişiliğin yazı stilini taklit etmek, kurbanı kandırarak para havalesi yaptırmak ya da hassas verileri teslim etmesini sağlamak için kullanılabilir. Deepfake ses ve video da aynı amaçla kullanılabilir.
- Dezenformasyon: GenAI, etki operasyonları için içerik yaratma işinin ağır yükünü de ortadan kaldırabilir. Yakın tarihli bir rapor, Rusya’nın bu tür taktikleri halihazırda kullandığı konusunda uyarıda bulundu ki bu taktikler başarılı bulunursa geniş çapta tekrarlanabilir.
Yapay Zekanın Sınırları
İyi ya da kötü, yapay zekanın şu anda sınırlamaları var. Yüksek yanlış pozitif oranları verebilir ve yüksek kaliteli eğitim setleri olmadan etkisi sınırlı olabilir. Çıktıların doğruluğunu kontrol etmek ve modellerin kendilerini eğitmek için genellikle insan gözetimi de gerekli. Tüm bunlar, AI’ın ne saldırganlar ne de savunmacılar için sihirli bir değnek olmadığı gerçeğine işaret ediyor.