Yapay zeka, siber güvenlik alanında hem inovasyonun temel taşı hem de saatli bomba olarak hızla ortaya çıktı. Bir zamanlar ağırlıklı olarak iyilik için bir güç olarak görüldüğünde, daha akıllı tehdit tespiti sağlamak, olay yanıtlarını otomatikleştirmek ve saldırıları gerçekleşmeden önce tahmin etmek — AI şimdi iki ucu keskin bir rol üstlendi. Siber güvenlik uzmanları için paha biçilmez kılan yetenekler artık siber suçlular tarafından daha hızlı, daha ikna edici ve daha zarar verici saldırılar başlatmak için kullanılıyor.
Gerçek iş yazışmalarından ayırt edilemeyen kimlik avı e-postalarından CEO’ları ve halka açık figürleri ürpertici bir doğrulukla taklit eden sahte videolara kadar, AI saldırganları daha önce bilim kurgu olan araçlarla silahlandırıyor. Büyük dil modelleri (LLM’LER), üretken yapay zeka ve derin öğrenme geliştikçe, kötü aktörlerin kullandığı taktikler daha ölçeklenebilir, kesin ve tespit edilmesi zor hale geliyor.
Kaspersky Orta Doğu, Türkiye ve Afrika Küresel Araştırma ve Analiz Ekibi Başkanı Sergey Lozhkin, ”Tehdit ortamı temelden değişiyor” diyor. “Siber suçlular en başından beri oldukça ikna edici kimlik avı e-postaları oluşturmak için büyük dil modelleri kullanmaya başladılar. Kötü dilbilgisi ve garip ifadeler — bir zamanlar ölü hediyeler kayboluyor. Günümüzün dolandırıcılığı tonu, yapıyı ve profesyonel dili mükemmel bir şekilde taklit edebilir.”
Ancak yanlış kullanım e-postada bitmiyor. Saldırganlar artık sahte web siteleri oluşturmak, aldatıcı görüntüler oluşturmak ve hatta güvenilir kişilerin kimliğine bürünmek için sahte ses ve video üretmek için yapay zeka kullanıyor. Bazı durumlarda, bu taktikler kurbanları büyük miktarlarda para aktarmaları veya hassas verileri ifşa etmeleri için kandırdı.
CrowdStrike mea’nın Üst Düzey Satış Mühendisliği Müdürü Roland Daccache’ye göre, AI şu anda tüm saldırı zincirinde kullanılıyor. “Üretken modeller, daha ikna edici kimlik avı cazibelerini, sahte tabanlı sosyal mühendisliği ve daha hızlı kötü amaçlı yazılım oluşturmayı körüklüyor. Örneğin, KUZEY KORE-nexus rakibi Ünlü Chollima, BT çalışanları olarak kuruluşlara sızmak için sahte LinkedIn profilleri ve özgeçmiş içeriği oluşturmak için Genai’yi kullandı. Başka bir durumda, saldırganlar, yüksek değerli iş e-postası uzlaşma (BEC) planları için yöneticilerin kimliğine bürünmek için yapay zeka tarafından oluşturulan sesli ve görüntülü derin sahtecilikleri kullandılar.”

Siber suç topluluğu ayrıca, karanlık web forumlarında istismarlar, kabuk komutları ve kötü amaçlı yazılım komut dosyaları yazmak için llm’lerin nasıl silahlandırılacağını açıkça tartışıyor ve bu da olası bilgisayar korsanlarının giriş engelini daha da düşürüyor. Bilgisayar korsanlığı araçlarının bu demokratikleşmesi, acemi siber suçluların bile artık en az çabayla karmaşık saldırılar düzenleyebileceği anlamına geliyor.
Önde gelen bir blockchain siber güvenlik firması olan Certik’in Kurucu Ortağı Ronghui Gu, AI’nın saldırganlara stratejilerini ölçeklendirme ve kişiselleştirme konusunda nasıl güç verdiğini vurguluyor. “İnsan tonunu yansıtan yapay zeka tarafından oluşturulan kimlik avı, sosyal mühendislik için sahte teknoloji ve algılamayı atlayan uyarlanabilir araçlar, düşük becerili tehdit aktörlerinin bile hassas davranmasına izin veriyor. Gelişmiş gruplar için yapay zeka daha fazla otomasyon ve etkinlik sağlar.”
Teknik cephede, quantumgate’in Baş Teknoloji Sorumlusu Janne Hirvimies, keşif ve kaba kuvvet taktiklerinde yapay zekanın artan kullanımına dikkat çekiyor.
“Tehdit aktörleri, kimlik avını otomatikleştirmek, hızlı veri kazıma yapmak ve gerçek zamanlı olarak uyum sağlayan kötü amaçlı yazılımlar oluşturmak için yapay zekayı kullanıyor. Yanal hareket ve istismar optimizasyonu için pekiştirmeli öğrenme gibi teknikler araştırılarak saldırılar daha hızlı ve daha uyarlanabilir hale getiriliyor.”

Siber Savunmayı Güçlendirmek
Yapay zeka destekli saldırganları alt etmek için işletmeler, yapay zekayı yalnızca bir destek mekanizması olarak değil, siber güvenlik stratejilerine merkezi bir sistem olarak yerleştirmelidir.
Lozhkin, ”AI yirmi yılı aşkın bir süredir operasyonlarımızın temel bir parçası” diyor. “Bu olmadan, güvenlik operasyon merkezi (SOC) analistleri uyarı yorgunluğuyla boğulabilir ve kritik tehditleri kaçırabilir.” Kaspersky’nin yaklaşımı, gürültüyü filtreleyen ve en acil tehditleri ortaya çıkaran gelişmiş makine öğrenimi yoluyla yapay zeka destekli uyarı sıralamasına ve önceliklendirmeye odaklanıyor.
Lozhkin, ”Bu sadece otomasyonla ilgili değil, büyütmeyle ilgili” diye açıklıyor. “Yapay Zeka Teknolojisi Araştırma Merkezimiz, bu gücü insan gözetimiyle eşleştirmemizi sağlıyor. Son teknoloji analitik ve yetenekli profesyonellerin birleşimi, her gün 450.000’den fazla kötü amaçlı nesneyi tespit etmemizi sağlar.”

Ancak yapay zekanın evrimi daha akıllı uyarılarla bitmiyor. Daccache’e göre, bir sonraki sınır, tehditleri gerçek zamanlı olarak özerk olarak algılayabilen, analiz edebilen ve bunlara yanıt verebilen bir sistem olan agentic aı’dır. Daccache, ”Geleneksel otomasyon araçları ancak bu kadar ileri gidebilir” diyor. “İhtiyaç duyulan şey, düşünen ve hareket eden yapay zekadır — ajanlık yetenekleri dediğimiz şey. Bu, yapay zekayı pasif bir gözlemciden cephe yanıtlayıcısına dönüştürür.”
Crowdstrike’ın Falcon platformuna entegre Charlotte yapay zekası bu vizyonu somutlaştırıyor. Güvenlik telemetrisini bağlam içinde anlar, kritik olaylara öncelik verir ve anında karşı önlemler başlatır, analist iş yükünü azaltır ve yüksek bahisli olaylar sırasındaki gecikmeleri ortadan kaldırır. Daccache, ”Savunuculara hızlı hareket eden, AI özellikli tehditlerle mücadele etmek için gereken hızı ve tutarlılığı sağlayan şey budur” diye ekliyor.
Gu, AI’nın gücünün, büyük hacimli verileri analiz etme ve geleneksel araçların gözden kaçırdığı nüanslı tehdit modellerini belirleme yeteneğinde yattığına inanıyor. Gu, ”Yapay zeka destekli tehdit tespiti, insan karar verme sürecinin yerini almaz – onu güçlendirir” diye açıklıyor. “Akıllı triyaj ve dinamik anomali tespiti ile AI, yanıt süresini kısaltır ve tehdit tespitini daha proaktif hale getirir.” Ayrıca, uyarlanabilirliği sağlamak için AI modellerini gerçek dünyadaki çeşitli veri kümeleri üzerinde eğitmenin önemini vurguluyor. “Tehdit ortamı durağan değil. AI savunmanız da olmamalı “diye ekliyor Gu.

Herhangi bir sağlam yapay zeka entegrasyon stratejisinin temelinde veriler bulunur — bunların çoğu. Hirvimies, SIEM (Güvenlik Bilgileri ve Olay Yönetimi) ve SOAR (Güvenlik Düzenleme, Otomasyon ve Yanıt) platformlarında makine öğrenimi modellerinin dağıtımını savunuyor. ”Bu sistemler, daha hızlı ve daha kesin yanıtlar vermek için gerçek zamanlı tehdit istihbaratını, davranışsal anormallikleri ve sistem olaylarını ilişkilendirebilir” diyor. “Özellikle yeni veya gizli saldırı modellerini tespit etmek söz konusu olduğunda, makine öğrenmesi bir tehdidi yakalamak ile manşet olmak arasındaki farkı yaratıyor.”
İnovasyonu Dürüstlükle Dengelemek
Yapay zeka tehdit tespitini, yanıt sürelerini ve tehdit simülasyonlarını artırabilirken, kötüye kullanım, ikincil hasar ve mahremiyetin aşınması potansiyelini de beraberinde getirir.
Lozhkin, ”Etik yapay zeka kullanımı şeffaflık, net sınırlar ve sorumlu veri işleme gerektirir” diyor.”Kuruluşlar ayrıca, kötüye kullanımı veya istenmeyen tehditlere maruz kalmayı önlemek için çalışanların yapay zeka araçlarının güvenli kullanımı konusunda uygun şekilde eğitilmelerini sağlamalıdır.” Kaspersky’nin artık yapay zeka destekli tehditler ve sorumlu kullanımla ilgili özel bölümler içeren ve şirketin proaktif eğitime olan bağlılığını yansıtan Otomatik Güvenlik Bilinci Platformunu vurguluyor.
Yapay zeka kırmızı takım halinde veya simüle edilmiş siber saldırılarda konuşlandırıldığında, risk matrisi genişler. Gu, AI sistemlerinin kontrol edilmediği takdirde insan bağlamından yoksun kararlar verebileceği ve potansiyel olarak istenmeyen ve yaygın sonuçlara yol açabileceği konusunda uyarıyor. ”Etik Yapay zeka yönetişimi, sağlam test ortamları ve açıkça tanımlanmış sınırlar esastır” diyor ve tehditleri etik olmayan bölgelere geçmeden simüle etmek için gereken hassas dengenin altını çiziyor.
Daccache, önce gizlilik, önce güvenlik yaklaşımının önemini vurgular. ”AI, Tasarım Gereği Gizlilik ve Tasarım Gereği Güvenli ilkelerle geliştirilmeli ve işletilmelidir” diye açıklıyor. “Bu, AI sistemlerinin kendilerini — eğitim verileri, operasyonel mantığı ve çıktıları dahil — düşmanca manipülasyondan korumaya kadar uzanıyor.”

Daccache ayrıca, özellikle kırmızı ekip oluşturma gibi hassas işlemlerde hem yapay zeka tarafından oluşturulan sorguları hem de çıktıları güvence altına alma ihtiyacına işaret ediyor. Bu tür güvenceler olmadan, gerçek bir veri sızıntısı veya yanlış kullanım tehlikesi vardır. ”AI’nın yeteneklerinin ve sınırlamalarının şeffaflığı, hesap verebilirliği ve belgelendirilmesi, yalnızca güven oluşturmak için değil, düzenleyici ve etik standartları karşılamak için de hayati önem taşıyor” diye ekliyor.
Yapay zekanın artan özerkliğine rağmen, insan gözetimi pazarlık konusu olmaya devam ediyor. Daccache, ”Yapay zeka simülasyonları ve tehdit tespitini hızlandırabilirken, eylemlerini bağlam ve sorumlulukla yorumlayabilen yetenekli profesyoneller tarafından yönlendirilmelidir” diyor. Bu insan-yapay zeka işbirliği, araçların örgütsel değerler ve etik normlarla uyumlu kalmasını sağlar.
Hirvimies, konuşmayı ek uyarı notlarıyla tamamlıyor: “Gizlilik ihlalleri, verilerin kötüye kullanılması, eğitim veri kümelerindeki önyargı ve saldırgan araçların kötüye kullanılması endişeleri artırıyor. Şeffaf yönetişim ve katı etik kurallar isteğe bağlı değildir, esastır.”
Denklemi Dengelemek
Yapay zeka hız, ölçek ve daha akıllı savunma mekanizmaları vaat ederken, uzmanlar bu sistemlere aşırı güvenmenin, özellikle uygun kalibrasyon ve gözetim olmadan konuşlandırıldığında, kuruluşları yeni risk biçimlerine maruz bırakabileceği konusunda uyarıyorlar.

Lozhkin, ”Sistemler uygun şekilde kalibre edilmezse veya izlenmezse kesinlikle yapay zekaya aşırı güvenmek geri tepebilir” diyor. “Tehdit aktörlerinin yapay zekayı yanıltmak için manipüle edilmiş verileri beslediği düşmanca saldırılar giderek artan bir endişe kaynağı. Ek olarak, yapay zeka, güvenlik ekiplerini alt edebilecek ve uyarı yorgunluğuna yol açabilecek yanlış pozitifler üretebilir. Bunu önlemek için şirketler katmanlı bir savunma stratejisi kullanmalı, modelleri sık sık yeniden eğitmeli ve yapay zeka güdümlü uyarıları ve kararları doğrulamak için insan gözetimini sürdürmelidir.”
Bu uyarı siber güvenlik ortamında yankılanıyor. Daccache, şeffaflık ve kontrol ihtiyacını vurgulayarak endişeyi yineliyor. “Özellikle kara kutu olarak ele alındığında yapay zekaya aşırı güvenmek gerçek riskler taşıyor. Düşmanlar zaten yapay zeka sistemlerini hedef alıyor – eğitim verilerini zehirlemekten model kör noktalardan yararlanan girdiler oluşturmaya kadar ”diye açıklıyor. “Doğru korkuluklar olmadan yapay zeka, güveni aşındıran ve yanıtı geciktiren yanlış pozitifler veya tutarsız kararlar verebilir.”
Daccache, yapay zekanın insan karar vermeyi tamamlayan — değiştirmeyen — bir araç olarak kalması gerektiğini vurguluyor. “Yapay zeka, insan yargısının bir uzantısı olmalıdır. Bu, dağıtımın her katmanında şeffaflık, kontrol ve bağlam gerektirir. Yüksek kaliteli veriler esastır, ancak sonuçların açıklanabilir, tekrarlanabilir ve operasyonel olarak sağlam olmasını sağlamak da önemlidir “diyor. “Kuruluşlar, sonuçları hızlandıran ve tasarım gereği doğrulanabilir, denetlenebilir ve güvenli olan yapay zeka sistemlerini benimsemelidir.”
Gu, AI modellerindeki kör noktaların ciddi hatalara yol açabileceğini de ekliyor. “AI sistemleri yanılmaz değil” diyor. “Aşırı güven, insan analistlerini zorlayan muhalif girdilere veya ezici hacimlerde yanlış pozitiflere duyarlılığa yol açabilir. Bunu hafifletmek için kuruluşlar döngüde insan yaklaşımını benimsemeli, yapay zeka içgörülerini bağlamsal insan yargısıyla birleştirmeli ve rakip taktiklere karşı rutin olarak stres testi modelleri kullanmalıdır.”
Gu ayrıca kötü aktörlerin gelişen taktikleri konusunda da uyarıyor. “Bir yapay zeka sağlayıcısı, kötüye kullanımı önlemek için belirli istemleri engelleyebilir, ancak saldırganlar sürekli olarak bu kısıtlamaları aşmanın akıllıca yollarını buluyor. Bu, şirketlerin azaltma stratejilerinde insan müdahalesini daha da önemli hale getirir.”
İki Ucu Keskin Kılıcı Yönetmek
Yapay zeka kendisini küresel dijital altyapının derinliklerine gömmeye devam ederken, yönetişim sorunu büyük ölçüde ortaya çıkıyor: Yakında yapay zekanın hem siber savunmada hem de suçta nasıl kullanıldığına rehberlik eden düzenlemeler veya uluslararası çerçeveler görecek miyiz?

Lozhkin, proaktif düzenlemenin aciliyetinin altını çiziyor. “Evet, kesinlikle uluslararası bir çerçeve olmalı. Yapay zeka teknolojileri inanılmaz verimlilik ve ilerleme sunar, ancak her yenilik gibi risklerden adil paylarını taşırlar “diyor. “Kaspersky’de yeni teknolojilerin benimsenmesi gerektiğine, korkulmaması gerektiğine inanıyoruz. Anahtar, tehditlerini tam olarak anlamak ve güvenli ve sorumlu inovasyonu mümkün kılarken bu riskleri ele alan güçlü, proaktif güvenlik çözümleri oluşturmaktır.”
Daccache için odak sadece spekülatif düzenlemeye değil, başlangıçtan itibaren yapay zeka sistemlerine temel ilkeleri aşılamaya odaklanıyor. ”Yapay zeka siber güvenlik ve dijital altyapıya daha fazla yerleştikçe, yönetişim, risk ve hesap verebilirlik ile ilgili sorular daha fazla dikkat çekiyor” diye açıklıyor. “GDPR gibi çerçeveler zaten teknolojiden bağımsız korumaları zorunlu kılıyor, yani en önemli şey, yapay zekanın kullanılıp kullanılmadığı değil, kuruluşların riski nasıl yönettiğidir.”
Daccache, Tasarım Gereği Gizlilik ve Tasarım Gereği Güvenliğin yapay zeka geliştirmeye dahil edilmesinin her şeyden önemli olduğunu vurguluyor. “Bu yaklaşımı desteklemek için CrowdStrike, kuruluşların AI sistemlerini kötüye kullanım ve düşmanca tehditlere karşı proaktif olarak test etmelerine ve güvence altına almalarına yardımcı olan AI Red Ekip Hizmetleri sunuyor. Bu, müşterilerin yapay zekayı güvenle ve önce güvenlik zihniyetiyle benimsemelerini nasıl sağladığımızın bir örneğidir.”
Öte yandan Gu, AI’nın yalnızca savunma mekanizmalarını nasıl dönüştürdüğünü değil, aynı zamanda yeni saldırı yetenekleri biçimlerini nasıl körüklediğini de vurguluyor. “Yapay zeka siber alanda hem savunmanın hem de suçun ayrılmaz bir parçası haline geldikçe, normlar oluşturmak, şeffaflığı sağlamak ve kötüye kullanımı önlemek için düzenleyici çerçeveler gerekli olacaktır. Özellikle gizlilik, gözetim ve saldırı yeteneklerini içeren alanlarda yapay zeka uygulamalarını yönetmek için mevcut siber suç anlaşmalarına benzer hem ulusal kılavuzların hem de uluslararası işbirliğinin ortaya çıkmasını bekliyoruz.”
Bu duyguyu yineleyen Hirvimies, gelişmelerin halihazırda devam ettiğini söyleyerek sonuca varıyor. “evet. AB Yapay Zeka Yasası ve küresel siber normlar gibi düzenlemeler, çift kullanımlı yapay zekayı ele almak için gelişiyor ”diyor. “Siber savunmada sorumlu yapay zeka kullanımına, saldırgan yapay zeka yeteneklerine yönelik sınırlamalara ve sınır ötesi olay müdahale işbirliğine odaklanan daha fazla uluslararası çerçeve bekleyebiliriz. Quantumgate’de ürünlerimizi bu değişimi destekleyecek ve ülkenin şifreleme düzenlemelerine uyumu kolaylaştıracak şekilde tasarladık.”
AYRICA şunu OKUYUN:
Bölge için yapay zeka destekli siber güvenlik, sorunsuz dijital dönüşüm için bir zorunluluktur
BAE: Dolandırıcılıkla mücadele merkezleri, siber suçlardan korunmak için gerekli topluluk raporları, diyor küresel uzmanlar
Birleşik Arap Emirlikleri: Yapay zeka yasalar yaratabilir mi? Bakan, yasal süreçleri hızlandırmak için teknoloji odaklı çerçevenin

