Page 67 - Bilgem Teknoloji Dergisi 15. Sayı
P. 67

Model şeffaflığı stratejisi modelin ve tahminlerinin  Yapay zekâ modeli güvenliği için alınan
                  şeffaflaştırılmasını içerir. Bu, girdileri ve  stratejiler arasında düzenli denetim ve izleme
                  çıktıları kaydederek, tahminler için  açıklamalar  bulunur. Sızma testleri güvenlik açıklarını
                  sağlayarak veya kullanıcıların dahilî gösterimleri  belirleme ve sistem güvenliğini sağlamlaştırma
                  incelemesine izin vererek yapılabilir. Model  konusunda         önemlidir.   Yazımız    güvenlik
                  şeffaflığı modelin çalışma prensiplerini anlama,  stratejilerini  ve bu stratejilerin uygulanmasının
                  tahminlerin nedenlerini anlama ve tersine  potansiyel avantajlarını  anlamak için  kapsamlı
                  mühendislik saldırılarını tespit etme yeteneğini  bir analiz sunmaktadır. Stratejilerin mantıklı
                  artırarak modelin güvenilirliğini ve doğruluğunu  bir şekilde sıralanması, konuların açık bir
                  artırır.                                         biçimde  ele  alınması  ve  spesifik  örneklerin
                                                                   kullanılması   okuyucunun     bilgi  edinmesini
                  Transfer  Öğrenme Stratejileri,  güvenli  ve  kolaylaştırmaktadır. Yapay zekâ geliştiricilerinin
                  güvenilir eğitim verilerinin kullanılmasını ve  saldırı ve savunma yöntemlerini iyi analiz ederek
                  nöron mesafelerinin enjekte edilmesini içerir. Bu  geliştirme süreçlerinde bu savunma stratejilerini
                  stratejiler, modelin bütünlüğünü ve güvenilirliğini  hayata geçirmesi sonrasında daha maliyetli
                  artırarak kötü amaçlı bilgilerin hedef modele  çözümler üretmemek ve güvenliğin sağlanması
                  aktarılmasını önlemeye yardımcı olur.            için zorunlu bir ihtiyaçtır.


                  Model çarpıtma  saldırılarına  karşı  kullanılan
                  stratejilerden erişim kontrolü, yetkisiz kişilerin
                  eğitim   verilerini  veya    model    çıkışlarını
                  değiştirme riskini azaltır. Geri bildirim verilerinin
                  doğruluğunu sağlamak için dijital imzalar ve
                  sağlama toplamları kullanılır. Veri doğrulama
                  ve temizleme teknikleri, eğitim verilerinin
                  güvenilirliğini artırır. Anomali algılama teknikleri
                  ise  saldırıları  tespit  eder.  Model  yanlılığını
                  önlemek için sürekli eğitim ve güncelleme
                  önemlidir [9].

                  Model servis dışı bırakma (DOS) saldırılarına
                  karşı alınan stratejilerden kaynak izleme, sistemin
                  kaynak kullanımını izleyerek aşırı tüketimi önler.
                  Giriş  doğrulama ve temizleme  uygulamaları
                  kullanıcı girişini kontrol eder ve model hizmet
                  reddi saldırılarını engeller.









                  Kaynakça:
                  [1] Internet: MITRE ATLAS, https://atlas.mitre.org/, (Erişim tarihi: 31.12.2023).
                  [2] A. Oprea, A. Vassilev (2023). Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations (draft), National
                  Institute of Standards and Technology, NIST AI 100-2e2023 ipd.
                  [3] Z. Wang, J. Ma, X. Wang, J. Hu, Z. Qin, K. Ren (2022). Threats to Training: A Survey of Poisoning Attacks and Defenses on Machine
                  Learning Systems, ACM Computing Surveys, 55(7), 1-36.
                  [4] Q. Lei, L. Wu, P.-Y. Chen, A. G. Dimakis, I. S. Dhillon, M. Witbrock (2019). Discrete Adversarial Attacks and Submodular Optimization
                  with Applications to Text Classification, Proceedings of Machine Learning and Systems, 1, 146-165.
                  [5] R. Pedro, D. Castro, P. Carreira ve N. Santos, From Prompt Injections to SQL Injection Attacks: How Protected is Your LLM-Integrated
                  Web Application?, arXiv preprint arXiv:2308.01990, (Erişim tarihi: 31.12.2023).
                  [6] X. Wu, R. Duan ve J. Ni (2023). Unveiling Security, Privacy, and Ethical Concerns of ChatGPT, Journal of Information and Intelligence,
                  1-14.
                  [7] S. V. Dibbo (2023). SoK: Model Inversion Attack Landscape: Taxonomy, Challenges, and Future Roadmap, In 2023 IEEE 36th Computer
                  Security Foundations Symposium (CSF), 439-456.
                  [8] T. Takemura, N. Yanai, T. Fujiwara (2020). Model Extraction Attacks on Recurrent Neural Networks, Journal of Information Processing,
                  28, 1010-1024.
                  [9] Internet: OWASP, ML08:2023 Model Skewing, https://owasp.org/www-project-machine-learning-security-top-10/docs/
                  ML08_2023-Model_Skewing.html, (Erişim tarihi: 20.12.2023).



                                                                                  TÜBİTAK BİLGEM TEKNOLOJİ ¬ TEMMUZ 2024  65
   62   63   64   65   66   67   68   69   70   71   72