Deepfakes artık o kadar gerçek olabilir ki, ‘Zoom’u sahte videodan ayırt edemezsiniz’, bir teknoloji uzmanı yakın zamanda Dubai İş forumu–ABD Baskısının aralarında vurguladı.
Dubai Chambers’ın New York City’deki IBM Innovation Studio’yu ziyareti sırasında dakikalar içinde ortaya çıkabilecek derin sahtekarlık tehdidinin artması, yapay zeka güvenliği konusundaki konuşmalara hakim oldu.
Yapay zeka tarafından oluşturulan medyayı tespit etmek için araçlar yaratan Reality Defender’ın CEO’su ve Kurucu Ortağı Ben Colman, Dubai’nin küresel bir teknoloji merkezi olma çabasının, şehri sentetik medya ve işletmeler, hükümetler ve gündelik insanlar için getirdiği gerçek riskler hakkındaki önemli konuşmaların merkezine koyduğuna inanıyor.
Geçen ay, BAE Ekonomi Bakanı Abdullah Bin Touq Al Marri, kendisine yatırım planlarını yanlış bir şekilde tanıttığını gösteren ve onları tamamen uydurma ve tehlikeli olarak nitelendiren bir dizi sahte videoyu da kınadı. Dubai’deki GİTEX 2025’te yaptığı konuşmada, halkı doğru bilgi için yalnızca resmi kanallara güvenmeye çağırmıştı.
Siber suçların bilgisayar bilimi becerilerine ihtiyacı yok h3> Dubai’nin dijital ekonomisini hızlandırması ve yaygın yapay zekanın benimsenmesine hazırlanmasıyla Colman’ın NYC’DEKİ mesajı hem bir uyarı hem de harekete geçirici mesaj olarak hizmet etti.
Uzman, günümüzde siber riskteki en büyük değişimlerden birinin, suçluların neredeyse hiç teknik geçmişi olmayan karmaşık saldırılar başlatmasını sağlayan yapay zeka araçlarının ‘erişilebilirliği’ olduğunu vurguladı.”Fidye yazılımı saldırısı oluşturmak için bilgisayar bilimi uzmanı olmanıza gerek yok. Artık seksen yaşındaki annem ya da sekiz yaşındaki oğlum olabilirsin. Onlar yapay Zeka veya Bilgisayar Bilimi uzmanı değiller “dedi. “Çoğunlukla ücretsiz olan ve başkaları için dolandırıcılık veya tehlike yaratan çeşitli platformlara çevrimiçi oluyorsunuz. Bunlar dramatik varoluşsal zararlar yaratabilir.”
İkna edici manipüle edilmiş videolar üretmenin ne kadar basit hale geldiğini resmetti. ”Reality Defender’ı sevdiğimi ve teknolojilerini benimsemenizi önerdiğimi söylemek istediğim bir video tıklaması oynatmak,” dedi ve herhangi bir halka açık figürün ne kadar kolay taklit edilebileceğini açıkladı.
Bunu daha endişe verici yapan şey, ne kadar az veriye ihtiyaç duyulduğudur.Herkesin çevrimiçi olduğu bir dünyada, birkaç saniyelik bir klip gerçek hasara neden olabilir.
“İlginç ve aynı zamanda çok korkutucu olan şey, bugün bir video için kamera görüntüsüne tek bir parçanın mükemmel bir Derin Sahte oluşturmak için ihtiyacınız olan tek şey olmasıdır.”
‘Yapay zeka bildiklerinizi asla kopyalayamayacak’
Bir yıl önce, çoğu hala tutarsızlıkları tespit edebilirdi. Ancak Colman, teknolojinin artık çoğu insanın tespit edebileceklerini aştığını söyledi. “Bir yıl önce farkı anlayabilirdiniz, ancak şu anda teknoloji iyi ve gerçektir ki, kendi çalışmalarımızda, bir Deepfake, Zoom’un ekran görüntüsünden daha gerçektir … bu, Zoom’un sahte göründüğü ve Deepfake’in gerçek göründüğü anlamına gelir” dedi. “Deepfake’de herkes herhangi biri olabilir … çok kolay, çok tehlikeli. Yani, şimdi asla güvenmeyin ve her zaman doğrulayın.”Bu nedenle kişisel kimlik doğrulama — ve basit insani sorular – çok önemli güvenceler haline gelebilir. “AI sizi kopyalayabilecek, ancak bildiklerinizi asla kopyalayamayacak. Eğer ailem ve çocuklarımsa, ‘Dün akşam yemekte ne yedin?’”
Bazı ünlüler varlıklarını genişletmek için zaten izne dayalı yapay zekayı benimserken, aynı teknolojinin silahlandırılabileceği konusunda uyardı. “Will Smith ve diğerleri gibi aktörler, kendilerini reklamlarda yaymak için izne dayalı yapay zeka kullanıyorlar. Bu iyi bir kullanım durumu “dedi. “Zorluklar?…Will Smith’i de kullanabilir ve ona kesinlikle bir şey yapmasını veya söylemesini sağlayabilirsiniz.”
Dubaili izleyicilere yönelik tehdidi göstermek için Colman, sahnede gösterilen videonun bile uydurma olduğunu açıkladı. “Merhaba Dubai Odaları Heyeti. Sahte videolar ve yapay zeka tarafından manipüle edilen videolar, kötü aktörlerin gerçekçi ve sahte kişileştirmeler oluşturmasının ve dosyalarınızı okumasının ne kadar kolay olduğu nedeniyle bireyler, kuruluşlar ve hükümetler için ciddi tehditler oluşturur. Bu … bu video (videoya işaret ediyor) benim için derin bir sahte.”
Daha sonra saldırganlar tarafından kullanılan oyun kitabını bozdu. “Hepimiz çevrimiçiyiz, bu yüzden birkaç Google Araması, sosyal medyanızı kontrol etme, Linkedln, bilgi toplama … tipik olarak bir yüz, birkaç saniyelik ses ve sesiniz yoksa … gerçek zamanlı ses bağışı için yüzlerce platform var ve sadece kulağa hoş gelen bir ses klibi seçin oldukça benzer “dedi. Tondan lehçeye kadar her şey kopyalanabilir.Colman,
Sahte videolar dakikalar içinde oluşturulabilir
Kötü oyuncular daha sonra hedeflerine karar verirler. “Neyi başarmaya çalışıyorsun? Birinin itibarına zarar vermeye mi çalışıyorsun? Bir şirketin en erken duyurularını almaya mı çalışıyorsunuz? Belki de Birleşmiş Milletler’de konuşan bir ülke lideridir. Bunu nasıl topikal veya viral hale getirir ve bir bağlılık duygusu yaratırsınız? Sonra saniyeler süren Derin Sahteciliği yaratırsınız ve sonra onu dağıtırsınız. Tüm bu süreç dakikalar içinde yapılabilir ve bu korkutucudur.”Asıl krizin, uzmanların bile neyin gerçek neyin uydurma olduğunu güvenilir bir şekilde söyleyememesi olduğunu söyledi. “Peki neden derin sahtecilikler sorunlu? Çünkü bireyler, kolluk kuvvetleri ve şirketler gerçek medya ile deepfake arasındaki farkı anlayamıyor ”dedi. “Her şey benim adım, sesim, yüzüm, cihazım, bağlantım, IP (İnternet Protokolü) adresim olduğunu iddia edebilir … evet diyebilir – ama yapay zekadır. Derin sahtecilikle asla yüzde 100 olmayacak. Yüzde 99 olacak.”
Bu, son derece ikna edici sosyal mühendislik saldırıları için verimli bir zemin oluşturur. ”Doğru miktarda güven ve algılanan otorite ile, genç çalışanlar genellikle üst düzey bir şahsiyete güveneceklerdir” dedi. “Bir arama bir CEO’DAN veya CFO’DAN geliyor gibi görünüyorsa ve kulağa mantıklı geliyorsa, ‘Hey CEO, gerçekten sen olduğunu kanıtla — e-postanıza giriş yapmadan önce bana iki faktörlü bir kod verin.’ Bunu kimse yapmaz.”
Derin sahteciliği algılayan teknoloji
Colman, daha gelişmiş yeteneklerin de yakında olacağı konusunda uyardı. “Deepfakes (gelecekte) daha kolay ve daha ucuz hale gelecektir. Şu anda, Deepfake’lerin çoğu gerçek zamanlı ses kullanıyor. Çok fazla gerçek zamanlı video değil, çünkü teknoloji mevcut değil, ancak ücretsiz hale getirmek hala çok pahalı “dedi. “Altı ay içinde gerçek zamanlı Deepfake video, gerçek zamanlı ses kadar ucuz ve ücretsiz olacak.”Reality Defender, bu hızlı evrime ayak uydurmak için oluşturulmuş araçlar geliştirdiğini de sözlerine ekledi. “Gerçek zamanlı ses, video, görüntü ve metin algılayabiliriz. Ben’in doğru mu yoksa doğru olmayan bir şey mi söylediğini bilmiyorsun. Ama adınızın, yüzünüzün veya sesinizin yapay zeka olup olmadığını biliyoruz. Şimdi (aynı zamanda) farklı (Arapça) lehçeleri anlayabilir — BAE, Suudi, Mısır.”

