Analistler, gelişen iş ortamında yapay zekanın (AI) yaygın olarak kullanıldığını, ancak şirketlerin bununla ilgili zorlukların hala farkında olmadığını söylüyor.
Şu anda, ’yapay zeka verileri / model zehirlenmesi’, kötü niyetli aktörler bir yapay zeka veya makine öğrenimi modelinin eğitim verilerini kasıtlı olarak manipüle ederek güvenilirliğini tehlikeye attığında ortaya çıkan kritik bir zorluk olarak ortaya çıkmıştır.
Çoğunlukla bu saldırı, MLOps döngüsü içindeki (makine öğrenimi modellerini dağıtan) öngörücü veya dar yapay zeka çözümlerinden (görev odaklı yapay zeka sistemleri) yararlanır. Üretken AI çözümlerinde bu zehirlenme, model seviyelerinden ziyade rag’de (alınan bilgiyi kullanan cevaplar) ve bilgi grafiklerinde (anlamak için bağlı veriler) görülür. En çok endişe verici olan, Yapay Zeka zehirlenmesinin yalnızca çıktıyı bozmakla kalmayıp aynı zamanda özerk eylemleri de etkilediği Ajanlı yapay zeka üzerindeki etkidir.
Örneğin, bir petrol ve gaz şirketinin tahmine dayalı bakımdan yapay zeka kullandığını düşünün. Burada, kötü niyetli bir aktör manipüle edilmiş sensör okumalarını eğitim verilerine ince bir şekilde enjekte ederse, yapay zeka gerçek uyarı işaretlerini tespit etmekte başarısız olabilir veya hatta sağlıklı ekipmanı yanlış işaretleyebilir. Bu, beklenmedik kapanmalara, maliyetli onarımlara ve potansiyel güvenlik tehlikelerine yol açabilir.
Benzer şekilde, finans sektöründe, bir bankanın yatırım aracısının bilgi grafiğindeki bozuk hisse senedi verileri, aracı yapay zekayı zayıf yatırım seçimleri yapmaya sevk edebilir ve bu da müşteriler için önemli kayıplara neden olabilir. “Yapay zeka zehirlenmesi, yapay zeka odaklı kararların güvenilirliğini zayıflatarak şirketleri operasyonel aksamalara ve finansal kayıplara karşı savunmasız hale getiriyor. Paramount CEO’su Premchand Kurup bir röportajda Khaleej Times’a verdiği demeçte, bu, varlıkların güvenli ve verimli bir şekilde çalışmasını sağlamak için verilerin bütünlüğünü korumanın önemini vurguluyor ”dedi.
Veri zehirlenmesi, özellikle finans ve siber güvenlik gibi hassas sektörlerdeki işletmeler için ciddi bir tehdit oluşturmaktadır. Örneğin, saldırganlar bir bankanın yapay zeka destekli dolandırıcılık tespit sistemindeki eğitim verilerini bozduğunda, gerçek sahtekarlığı tespit etmekte başarısız olabilir ve bu da önemli mali kayıplara neden olabilir. Benzer şekilde, siber güvenlikte, zehirli kötü amaçlı yazılım tespit sistemi tehditleri güvenli olarak yanlış sınıflandırarak sistemleri saldırıya karşı savunmasız bırakabilir. Veri zehirlenmesi müşteri güvenini aşındırabileceğinden ve itibara zarar verebileceğinden, sonuçlar ani kayıpların ötesine geçebilir. “Bu karmaşık saldırıları tespit etmek, sağlam AI siber güvenlik çerçevesi ve koruma mekanizmaları gerektiriyor. Bu kaynaklardaki verimsizlik, kuruluşların yapay zeka girişimlerine olan güvenini azaltabilir “dedi.
Kurup, yapay zeka entegrasyonunun hızlanması nedeniyle şirketlerin, teknolojinin güvenli ve sorumlu bir şekilde uygulanmasını sağlamak için Siber Güvenlik için kapsamlı bir yapay Zeka Çerçevesi benimsemeleri gerektiğini söyledi. “Bu çerçevenin ilk bileşeni, verimliliği artırırken veri gizliliği endişelerini ve yasal yükümlülükleri ele alarak sorumlu yapay zeka kullanımı için net yönergeler oluşturan yapay zeka yönetişimidir. İkincisi, veri toplamadan dağıtıma ve kullanımdan kaldırmaya kadar kapsamlı bir yapay zeka yaşam döngüsü yaklaşımıyla yapay zeka modellerini dış tehditlerden korumak için yapay zeka sistemlerinin güvenliğini sağlamak. Bu, sistem sömürüsü risklerini azaltarak YZ bütünlüğünü ve esnekliğini sağlar ”dedi.


