Düşmanlar tarafından silah olarak kullanılan Makine Öğrenimi
Düşmanlar tarafından silah olarak kullanılan Makine Öğrenimi
- BİLİM ve TEKNOLOJİ
- Sat, 12 Jun 2021 15:41:19
- Sat, 12 Jun 2021 15:41:19
Ortaya çıkan hemen her yeni teknolojinin olduğu gibi ML (Machine Learning), duruma göre çözüm veya zarar olarak kullanılabilecek iki ucu keskin bir kılıçtır. Bu nedenle, rakiplerin makine öğrenimi modellerini içeren saldırı yapmayı öğrenmekle giderek daha fazla ilgileneceğini varsaymak doğaldır. Örneğin, kötü amaçlı yazılım sınıflandırıcıları, davranış analitiği, spam filtreleri ve çeşitli patlama odası teknolojileri gibi ML kullanan birçok güvenlik çözümünü zaten biliyoruz; hepsi her gün hedef alınıyor ve saldırı yüzeyi genişliyor.
Ancak konuya gelelim, ML teknolojisinin veya modelinin amacı, onlara karşı başlatılan saldırıları, standart bir penetrasyon testi durumu içinde Beyaz Kutu veya kara kutu ile birlikte ele alarak soyutlayabildiğimizde şeffaftır.
Beyaz Kutu saldırıları, rakibin belirli bir modele doğrudan erişimi olduğunu varsayar. Bununla koddan, mimariden, eğitilmiş parametrelerden ve bazı durumlarda kullanılan veri setinden bahsediyoruz. Bu tür bir saldırı gerçek hayatta mümkün görünmese de, bir modelle ilgili tüm bu verilere sahip olmak, genellikle gizli tutulan (bulutta ve kullanıcının modele yalnızca API erişimi olan) önemli ölçüde bilgi gerektirdiğinden, hala model çalma saldırıları vardır. Beyaz Kutu senaryosundan önce gerçekleştirilebilir. (Ve burada önemli bir yanılgıyı ortadan kaldırmak gerekir: ML saldırı jargonu altında model çalma, bir ML model hedefinin bir klonunun oluşturulması anlamına gelir. Bu, kaynak kodun veya dosyaların izinsiz olarak çıkarılması anlamında onu çalmak anlamına gelmez. İkincisi.
Model çalma çok yönlü olabilir, çoğu kez modeller, kötü niyetli bir kullanıcının erişebileceği ve Tersine Çevirme gibi bir işlemin uygulanabileceği uç cihazlara dağıtılır. Ayrıca, araştırmalar, çekişmeli örneklerin veya bu durumda bir modelin aktarılabilir olabileceğini göstermiştir, yani hedefimize benzer bir model için çekişmeli bir örnek, buna da uygulanabilir. Bu şekilde, saldırgan aynı kullanım durumu için yerel olarak tasarlanmış bir modeli eğitebilir ve bunun için rakip bir örnek oluşturabilir ve bu da hedef modele karşı potansiyel olarak etkili olabilir.
Ve burada, hedef modele doğrudan erişimimizin olmadığı ve çoğu durumda erişimin internet veya belirli ML sağlayıcısı üzerinden basit sorgularla sınırlı olduğu Kara Kutu saldırılarını tanıtıyoruz. Ayrıca, iç yapısı, mimarisi veya verileri hakkında bilgi yok. Bu tür saldırılar, Blind SQL enjeksiyonlarıyla aynı şekilde çalışır, hedef modele karşı yinelemeli (ve eğitimli) sorgular gerçekleştirir ve bir kopyasını oluşturmak için çıktılarını gözlemler; ardından Beyaz Kutu teknikleri uygulanır. Evet, bu saldırı, veri kümesinin kullanılabilirliği, girdi alanının boyutu, kullanım durumunun karmaşıklığı, modelin karmaşıklığı vb. gibi faktörlere bağlı olarak değişen karmaşıklığa sahiptir. Ancak burada dikkat edilmesi gereken önemli bir nokta şudur: bir model basit bir doğrusal model ise ve girdinin boyutu oldukça düşükse, saldırgan birkaç denklemi çözebilir ve konuşlandırılmış modelin tam bir kopyasını oluşturabilir. Yukarıda bahsedilen tüm kavramlar kulağa oldukça teknik ve çok karmaşık geliyordu, aslında öyleler ama sıradan insanların günlük yaşamlarını gerçekten nasıl etkileyecek?? Tahmin edebileceğimiz gibi, ML teknolojilerinin dünyayı tamamen “istila edebileceğini” ve önümüzdeki yıllarda bu modellerle giderek daha fazla etkileşimin saldırı/uzlaşma olanaklarını genişleteceğini söyleyebiliriz. Örneğin, bir askeri insansız hava aracı düşman tanklarını dost tanklar olarak yanlış tanımlar veya hedefleri masumlarla yanlış tanımlar. Kendi kendini süren bir araba, karşıdan gelen trafiğe girer. Bir NLP botu, büyük bir kriz başlatan bir başkanın veya siyasi aktörün karmaşık, derin bir sahtekarlığını yaratır.
Siber suçlular için makine öğrenimi
Öte yandan, makine öğrenimi teknolojileri ve yetenekleri, geleneksel öldürme zinciri modelinde de kullanılabilir ve bu da saldırganlara hasarlarında başarılı olma konusunda daha fazla avantaj sağlar. Bunlar, makine öğreniminin çözebileceği öldürme zincirinin yalnızca birkaç örneğidir.
Bilgi toplama
Kötü niyetli aktörler, potansiyel bir kurbanı ilgili bir gruba ait olarak nitelendirmek için sınıflandırma algoritmalarını kullanabilir. Bu, binlerce e-posta topladıktan sonra bir saldırganın yalnızca bağlantıyı tıklayanlara kötü amaçlı yazılım gönderdiği anlamına gelir. Böylece saldırgan, planlanan saldırının erken tespit şansını azaltır. Burada birçok faktör yardımcı olabilir. Örneğin, saldırgan, BT hakkında yazan sosyal ağ sitelerinin kullanıcılarını "yemek ve kedi" konularına odaklananlardan ayırabilir. İkinci grup tehditlerin farkında olmayabilir.
Bu durumda, mağdurun sosyal ağlardaki gönderilerine uygulanması gereken NLP analizine ek olarak, K-ortalamalar ve rastgele ormanlardan sinir ağlarına kadar çeşitli kümeleme ve sınıflandırma yöntemleri kullanılabilir. Ek olarak, bir saldırgan bir kurbanı tanıyorsa ve onun resmi varsa, makine öğrenimi daha fazla yardımcı olabilir. Görüntü tanıma araçlarını uygulayarak sosyal medya hesaplarını tespit etmek kolaydır.
Kimliğe bürünme
Yapay zekanın yeni çağında şirketler yalnızca sahte metinler değil, aynı zamanda sahte sesler veya videolar da oluşturabiliyor. Sesleri taklit edebilen medya ve video konusunda uzmanlaşmış bir girişim olan Lyrebird, tam olarak sizin gibi konuşan bir robot yapabileceklerini gösteriyor. Artan miktarda veri ve gelişen ağlarla, bilgisayar korsanları daha da iyi sonuçlar gösterebilir.
Sadece birkaç yıl önce, sinir ağları tarafından oluşturulan videolar ve görüntüler kalitesizdi ve yalnızca araştırma makaleleri için kullanışlıydı. Artık neredeyse herkes bir ünlünün ya da dünyaca ünlü bir politikacının hiç söylemediği şeyleri söylediği ya da hiç yapmadığı bir şeyi yaptığı sahte bir video oluşturabiliyor (örn. Obama'nın Bu Videoda Ne Dediğine İnanmayacaksınız). Deepfake gibi halka açık araçların yardımıyla elde edilebilir.
Yetkisiz Erişim
Siber suçluların bir kullanıcının oturumuna yetkisiz erişim sağlaması gerekiyorsa, bunun bariz yolu hesabı tehlikeye atmaktır. Toplu kaba kuvvet uygulama (veya parola püskürtme) için can sıkıcı şeylerden biri captcha bypass'tır. Bir dizi bilgisayar programı basit captcha testlerini çözebilir, ancak en karmaşık kısım nesne segmentasyonudur.
Bu geçişle ilgili en ilham verici makalelerden biri Black Hat konferansında yayınlandı. Araştırma makalesinin adı “Ben Bir Robotum”. En son semantik görüntü captcha'sını kırarlardı ve çeşitli makine öğrenimi algoritmalarını karşılaştırdılar. Gazete, Google'ın recaptcha'sını kırma konusunda %98 doğruluk sözü verdi.
Saldırı/sömürü aşaması
En yaygın güvenlik açığı bulma yöntemlerinden biri Fuzzing'dir. Uygulamaya rastgele bir girdi koymak ve çöküp çökmeyeceğini izlemek anlamına gelir. Otomasyon ve AI yardımı gerektiren 2 adım vardır. Birincisi, örneklerin üretilmesidir. Genellikle, örneğin bir PDF belgesi alırsanız, bir araştırmacı bu belgeyi bazı alanları rastgele değiştirerek düzenler. Mutasyon oluşturmaya yönelik daha akıllı yaklaşımların kullanılması, uygulamayı çökertecek yeni belge örnekleri bulma sürecini önemli ölçüde hızlandırabilir.
AlphaGo tarafından kullanılanlar gibi pekiştirmeli öğrenme yaklaşımları da uygulanabilir. AlphaGo modeli bir oyunda bir aksaklık bulduysa, güvenlik sorunlarının bulunmasına da yardımcı olabilir. Çökmelerin analizi, güvenlik açığı keşfini takip eder. Her analiz çok fazla manuel çalışma gerektirir. Daha ilgili kazaları seçmek için bir model eğitmek mümkünse, zamandan ve emekten tasarruf sağlayacaktır. Ek olarak, güvenlik açığı keşfini çok daha ucuz hale getirir.
Görevlerin otomasyonu
Deneyimli bilgisayar korsanları, çeşitli alanlarda görevleri otomatikleştirmek için makine öğrenimini kullanabilir. Tam olarak ne zaman ve neyin otomatikleştirileceğini tahmin etmek neredeyse imkansızdır, ancak bunun farkında olan siber suç örgütlerinin, destek portalları veya destek botları gibi farklı türde yazılımlara ihtiyaç duyan yüzlerce üyesi vardır.
Belirli siber suç görevlerine gelince, akıllı botnetler anlamına gelen "hivenet" olarak bilinen yeni bir terim var. Buradaki fikir, siber suçlular botnet'leri manuel olarak yönetirse, hivenet'lerin belirli bir olaya ulaşmak ve buna bağlı olarak davranışı değiştirmek için bir tür beyne sahip olabileceğidir. Cihazlara birden fazla bot oturacak ve göreve göre kurbanın kaynaklarını kimin kullanacağına karar verecek.
Neredeyse göremediğimiz gibi, AI yetenekleriyle donanmış saldırganlar, zorlu ve benzeri görülmemiş bir tehdit oluşturuyor. Kötü aktörler sürekli olarak boşluklara ve sistemlerden yararlanmanın yollarına bakarlar ve yapay zeka tarafından verilen doğru araçlarla, insanların ulaşamayacağı bir ölçekte başarıya kolayca ulaşabilirler. Ayrıca, geleneksel sızma testi metodolojisi bu saldırılara karşı değerlendirmeyi kapsamayacaktır çünkü bunların çoğu alana özeldir. Bir ML sistemini yukarıda tartışılan potansiyel vektörlere karşı test etmek, "mükemmel bir alan uzmanlığı" gerektirir.
Yapay zekanın güvenlik çözümü setimizin bir parçası olmasını, kötü niyetli davranışlar ve genel olarak tehditler için karmaşık tanımlanmış modelleri güçlendirmesini ve ayrıca her analizi insanlardan daha hızlı ve doğru bir şekilde gerçekleştirmesini sağlamalıyız. Ancak daha da önemlisi, güvenlik araştırmacıları ve makine öğrenimi uygulayıcılarını yukarıdaki konularda eğitmek için tasarlanmış eğitim programları geliştirmektir.