ΧΑΙ IDS: Towards robustness against adversarial attaks in hostile environments
ΧΑΙ IDS: Düşmanca ortamlarda adversaryal saldırılara karşı dayanıklılığa doğru
- Tez No: 929946
- Danışmanlar: DOÇ. DR. YÜCEL BATU SALMAN
- Tez Türü: Yüksek Lisans
- Konular: Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol, Computer Engineering and Computer Science and Control
- Anahtar Kelimeler: Belirtilmemiş.
- Yıl: 2025
- Dil: İngilizce
- Üniversite: Bahçeşehir Üniversitesi
- Enstitü: Lisansüstü Eğitim Enstitüsü
- Ana Bilim Dalı: Bilgisayar Mühendisliği Ana Bilim Dalı
- Bilim Dalı: Siber Güvenlik Bilim Dalı
- Sayfa Sayısı: 68
Özet
Dijital ağların hızla büyümesi, siber tehditlere karşı hassas verileri korumak için Saldırı Tespit Sistemlerine (IDS) olan ihtiyacı artırmıştır. Bu çalışma, rastgele orman (Random Forest), Destek Vektör Makineleri (SVM), Karar Ağacı (Decision Tree), En Yakın Komşular (KNN), Naive Bayes ve Ekstrem Gradient Boosting (XGBoost) gibi altı sınıflandırıcı kullanarak makine öğrenimi tabanlı IDS'lerin adversaryal koşullardaki sağlamlığını ve yorumlanabilirliğini değerlendirmektedir. Model performansı ve açıklanabilirliği, NSL-KDD veri kümesi kullanılarak adversaryal bozulmalardan önce ve sonra incelenmiştir. Adversaryal saldırılar, SHAP ve LIME tarafından belirlenen anahtar özellikleri hedef alarak Jacobian tabanlı Saliency Map Attack (JSMA) yöntemiyle simüle edilmiştir. XGBoost ve Random Forest gibi topluluk modelleri, normal koşullarda üstün doğruluk sergilemiş, ancak adversaryal bozulmalar performans düşüşüne neden olmuştur. XGBoost, saldırı sonrası %90.2 doğruluğunu koruyarak en dayanıklı model olmuştur, buna karşılık Naive Bayes %79.3'e düşerek en fazla etkilenen model olmuştur. Bu çalışma, dayanıklı makine öğrenimi modellerini açıklanabilirlik çerçeveleriyle entegre eden sağlam IDS mimarilerinin tasarımının önemini vurgulamaktadır. Bu, öngörü doğruluğu ve yorumlanabilirlik arasındaki dengeye ilişkin siber güvenliğe içgörüler sağlayarak adversaryal senaryolarda dirençli bir yaklaşım sunmaktadır. Gelecekteki araştırmalar, yüksek performansı, sağlam yorumlanabilirliği ve adversaryal saldırılara karşı direnci birleştiren IDS modellerinin geliştirilmesine odaklanmalıdır.
Özet (Çeviri)
The rapid growth of digital networks has increased the need for Intrusion Detection Systems (IDS) to protect sensitive data against cyber threats. This study evaluates the robustness and interpretability of machine learning-based IDS under adversarial settings using six classifiers: Random Forest, Support Vector Machines (SVM), Decision Tree, K-Nearest Neighbors (KNN), Naive Bayes, and Extreme Gradient Boosting (XGBoost). The NSL-KDD dataset was used to investigate model performance and explainability before and after adversarial perturbations. Adversarial attacks were simulated using the Jacobian-based Saliency Map Attack (JSMA), targeting key features identified by SHAP and LIME. Ensemble models such as XGBoost and Random Forest demonstrated superior accuracy under normal conditions, while adversarial perturbations caused performance degradation. XGBoost remained the most resilient, retaining a post-attack accuracy of 90.2%, while Naive Bayes suffered the most, dropping to 79.3%. The study emphasizes the importance of designing resilient IDS architectures that integrate robust machine learning models with explainability frameworks capable of withstanding adversarial perturbations. This contributes to cybersecurity by providing insights into the trade-offs between predictive accuracy and interpretability in adversarial scenarios. Future research should focus on developing IDS models that combine high performance, robust interpretability, and enhanced resistance to adversarial attacks.