Page 67 - Bilgem Teknoloji Dergisi 15. Sayı
P. 67
Model şeffaflığı stratejisi modelin ve tahminlerinin Yapay zekâ modeli güvenliği için alınan
şeffaflaştırılmasını içerir. Bu, girdileri ve stratejiler arasında düzenli denetim ve izleme
çıktıları kaydederek, tahminler için açıklamalar bulunur. Sızma testleri güvenlik açıklarını
sağlayarak veya kullanıcıların dahilî gösterimleri belirleme ve sistem güvenliğini sağlamlaştırma
incelemesine izin vererek yapılabilir. Model konusunda önemlidir. Yazımız güvenlik
şeffaflığı modelin çalışma prensiplerini anlama, stratejilerini ve bu stratejilerin uygulanmasının
tahminlerin nedenlerini anlama ve tersine potansiyel avantajlarını anlamak için kapsamlı
mühendislik saldırılarını tespit etme yeteneğini bir analiz sunmaktadır. Stratejilerin mantıklı
artırarak modelin güvenilirliğini ve doğruluğunu bir şekilde sıralanması, konuların açık bir
artırır. biçimde ele alınması ve spesifik örneklerin
kullanılması okuyucunun bilgi edinmesini
Transfer Öğrenme Stratejileri, güvenli ve kolaylaştırmaktadır. Yapay zekâ geliştiricilerinin
güvenilir eğitim verilerinin kullanılmasını ve saldırı ve savunma yöntemlerini iyi analiz ederek
nöron mesafelerinin enjekte edilmesini içerir. Bu geliştirme süreçlerinde bu savunma stratejilerini
stratejiler, modelin bütünlüğünü ve güvenilirliğini hayata geçirmesi sonrasında daha maliyetli
artırarak kötü amaçlı bilgilerin hedef modele çözümler üretmemek ve güvenliğin sağlanması
aktarılmasını önlemeye yardımcı olur. için zorunlu bir ihtiyaçtır.
Model çarpıtma saldırılarına karşı kullanılan
stratejilerden erişim kontrolü, yetkisiz kişilerin
eğitim verilerini veya model çıkışlarını
değiştirme riskini azaltır. Geri bildirim verilerinin
doğruluğunu sağlamak için dijital imzalar ve
sağlama toplamları kullanılır. Veri doğrulama
ve temizleme teknikleri, eğitim verilerinin
güvenilirliğini artırır. Anomali algılama teknikleri
ise saldırıları tespit eder. Model yanlılığını
önlemek için sürekli eğitim ve güncelleme
önemlidir [9].
Model servis dışı bırakma (DOS) saldırılarına
karşı alınan stratejilerden kaynak izleme, sistemin
kaynak kullanımını izleyerek aşırı tüketimi önler.
Giriş doğrulama ve temizleme uygulamaları
kullanıcı girişini kontrol eder ve model hizmet
reddi saldırılarını engeller.
Kaynakça:
[1] Internet: MITRE ATLAS, https://atlas.mitre.org/, (Erişim tarihi: 31.12.2023).
[2] A. Oprea, A. Vassilev (2023). Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations (draft), National
Institute of Standards and Technology, NIST AI 100-2e2023 ipd.
[3] Z. Wang, J. Ma, X. Wang, J. Hu, Z. Qin, K. Ren (2022). Threats to Training: A Survey of Poisoning Attacks and Defenses on Machine
Learning Systems, ACM Computing Surveys, 55(7), 1-36.
[4] Q. Lei, L. Wu, P.-Y. Chen, A. G. Dimakis, I. S. Dhillon, M. Witbrock (2019). Discrete Adversarial Attacks and Submodular Optimization
with Applications to Text Classification, Proceedings of Machine Learning and Systems, 1, 146-165.
[5] R. Pedro, D. Castro, P. Carreira ve N. Santos, From Prompt Injections to SQL Injection Attacks: How Protected is Your LLM-Integrated
Web Application?, arXiv preprint arXiv:2308.01990, (Erişim tarihi: 31.12.2023).
[6] X. Wu, R. Duan ve J. Ni (2023). Unveiling Security, Privacy, and Ethical Concerns of ChatGPT, Journal of Information and Intelligence,
1-14.
[7] S. V. Dibbo (2023). SoK: Model Inversion Attack Landscape: Taxonomy, Challenges, and Future Roadmap, In 2023 IEEE 36th Computer
Security Foundations Symposium (CSF), 439-456.
[8] T. Takemura, N. Yanai, T. Fujiwara (2020). Model Extraction Attacks on Recurrent Neural Networks, Journal of Information Processing,
28, 1010-1024.
[9] Internet: OWASP, ML08:2023 Model Skewing, https://owasp.org/www-project-machine-learning-security-top-10/docs/
ML08_2023-Model_Skewing.html, (Erişim tarihi: 20.12.2023).
TÜBİTAK BİLGEM TEKNOLOJİ ¬ TEMMUZ 2024 65