Page 65 - Bilgem Teknoloji Dergisi 15. Sayı
P. 65

Üstelik  saldırgan  daha  önce  kara  kutu  iç temsil hakkında değerli bilgiler içeren istenen
                  konumunda olan modeli beyaz kutu konumunda  katmandaki nöronların çıktılarını çıkararak
                  inceleyebilmektedir.   Modeli    çalmak    için  başlar. Saldırgan daha sonra hedef modeldeki
                  saldırgan ilk  olarak  hedef modelin  iç  yapısını  aynı katmanda orijinal girdinin iç temsilini taklit
                  bilmeden  arayüz  veya  API  aracılığıyla  modelle  eden girdideki pertürbasyonları veya değişiklikleri
                  etkileşime girer. Saldırgan, modeli çıkarmak için  hesaplar.  Saldırgan,  pertürbasyonları  yinelemeli
                  kullanılan girdi verilerini toplar [8]. Bu veriler  olarak ayarlayarak ve hedef modelin çıktısını kaynak
                  modelin çıktılarını sorgulamak ve analiz etmek  modelle karşılaştırarak orijinal girdinin iç temsiline
                  için kullanılır. Saldırgan, modelin çıktıları ile girdi  yakından benzeyecek şekilde pertürbasyonları
                  verileri arasındaki ilişkileri analiz ederek hedef  iyileştirebilir. Bu, saldırganın hassas bilgileri
                  modelin öğrenme davranışını anlamaya çalışır  elde etmesine veya gayrimeşru girdilerin sistem
                  ve modelin yapısını tahmin etmek veya benzer  tarafından meşru olarak algılanmasına neden olabilir.
                  bir model oluşturmak için analiz sonuçlarını
                  kullanarak yeni bir model tasarlar. Saldırgan,  Yukarıda bahsedilen saldırılara ek olarak yaygın
                  benzer bir model oluşturarak hedef modelin iç  kullanımda  olan  diğer saldırı  türlerini  de  şöyle
                  yapısını veya parametrelerini çıkarmaya çalışır.  sıralayabiliriz: Modelin davranışını değiştirmek
                  Bu, hedef modelin davranışını taklit eden çalıntı  için makine öğrenme işlemleri sistemlerinin
                  bir modelle sonuçlanır.                          (MLOps) geri bildirim döngüsüne müdahale
                                                                   edilip manipüle edilerek model öğrenme şeklinin
                  2.1.9. Aktarım Öğrenimi (Transfer Learning)      değiştirilmesini ve istenmeyen davranışlara yol
                                                                   açmasını sağlayan model çarpıtma saldırıları
                  Aktarım öğrenimi saldırıları, hedef model  [9]. Modelin hesaplama kaynaklarını zorlayarak
                  aktarım    öğrenimi    yöntemleri   kullanılarak  kötü niyetli veri enjeksiyonu ile gerçekleştirilen
                  eğitildiğinde ortaya çıkar. Aktarım öğrenimi  servis dışı bırakma saldırıları.  Model sorgu
                  önceden eğitilmiş bir modelin (kaynak model)  yanıtlarının  incelenmesi  ile eğitim  sırasında
                  yeni bir model (hedef model) oluşturmak  kullanılan  veri  noktalarının  tespiti  ve  hassas
                  üzere farklı bir görev için uyarlandığı veya ince  verilerin çıkarılmasına olanak sağlayan üyelik
                  ayarının yapıldığı bir tekniktir. Aktarım öğrenimi  çıkarımı  (membership  inference)  saldırıları.
                  saldırısı  bir  saldırganın  kaynak  modelin  belirli  Yazılım tedarik zincirindeki kütüphanelere
                  bir katmanındaki orijinal girdinin iç temsilini  (örneğin; açık kaynaklı kütüphaneler) zararlı
                  kopyalamaya çalıştığı bir tekniktir. Saldırı, orijinal  yazılımlar ile müdahale edilerek hassas veri ihlali
                  girdiyi kaynak modele girdi olarak kullanarak ve  gibi sonuçlara yol açan tedarik zinciri saldırıları.



                                                                                  TÜBİTAK BİLGEM TEKNOLOJİ ¬ TEMMUZ 2024  63
   60   61   62   63   64   65   66   67   68   69   70