Geri Dön

A concept-aware explainability method for convolutional neural networks

Evrişimsel sinir ağlarinin açiklanabilirliği için kavram bilinçli bir yöntem

  1. Tez No: 933031
  2. Yazar: MUSTAFA KAĞAN GÜRKAN
  3. Danışmanlar: PROF. DR. NAFİZ ARICA
  4. Tez Türü: Doktora
  5. Konular: Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol, Computer Engineering and Computer Science and Control
  6. Anahtar Kelimeler: Belirtilmemiş.
  7. Yıl: 2025
  8. Dil: İngilizce
  9. Üniversite: Bahçeşehir Üniversitesi
  10. Enstitü: Lisansüstü Eğitim Enstitüsü
  11. Ana Bilim Dalı: Bilgisayar Mühendisliği Ana Bilim Dalı
  12. Bilim Dalı: Yapay Zeka Bilim Dalı
  13. Sayfa Sayısı: 161

Özet

Evrişimsel Sinir Ağları (CNN) çeşitli Yapay Görü uygulamalarında klasik modellerden daha iyi performans gösterseler de, anlaşılabilirlik eksikliği güven sorunları yaratmaktadır. Bu nedenle, açıklanabilirliklerini geliştirmek için yapılan araştırmalara artan bir ihtiyaç duyulmaktadır. Bu tez, önceden eğitilmiş CNN modelleri için açıklama sağlama amaçlı Kavram Bilinçli Açıklanabilirlik (CAE) adı verilen kavram temelli bir yöntem önermektedir. Evrişimli filtreler ile önceden tanımlanmış bir dizi kavram arasındaki ilişkiyi ölçmek için Algı Puanı Ortalaması isimli yeni bir metrik tanımlanmaktadır. Bu metrikle belirlenen Kavram Bilinçli Filtreler (CAF) ve Filtre Etkinleştirici Kavramlar (FAC) listeleri çıkarım esnasında açıklanabilirlik raporlarını oluşturmada kullanılmaktadır. CAE yöntemi, CAF ve FAC listelerindeki filtre-kavram ilişkileriyle model davranışını analiz etme, model kararını oluşturulan raporlardaki kavramlarla açıklama veya modelleri belirli bir kavramı veya genel olarak ne kadar iyi açıklayabildiklerine göre karşılaştırma gibi alanlarda kullanılabilinir. Bu tez kapsamında, Places365-Standard ve ImageNet veri kümeleri ile eğitilmiş ResNet18 ve VGG16 modelleri kullanılarak yukarıda belirtilen alanların her biri irdelenmiştir. Bu modeller farklı kavram veya kavram grupları karşısındaki homojen davranabilme ve kavramsal benzerlikleri belirleyeme becerileri üzerinden analiz edilmiştir. Oluşturulan açıklama raporları ışığında doğru ve yanlış kararları verirken kullandıkları mantık incelenmiştir. Son olarak, açıklanabilirlik özellikleri raporlardaki kavramların doğruluk ve kesinlik oranları ya da belli kavramlara özel davranışları baz alınarak karşılaştırılmıştır.

Özet (Çeviri)

Although the Convolutional Neural Networks (CNNs) outperform the classical models in a wide range of Machine Vision applications, their lack of comprehensibility in reasoning generates trust issues. Consequently, there is a growing need for research to improve their explainability. This thesis proposes a concept-based method, called Concept-Aware Explainability (CAE) to provide an explanation for pre-trained CNN models. A new measure, called Detection Score Mean is introduced to quantify the relationship between the convolutional filters and a set of pre-defined concepts. Based on this metric, the lists of Concept-Aware Filters (CAF) and Filter-Activating Concepts (FAC) are defined. These lists are used as reference in inference time to generate explainability reports. The CAE method can help in analyzing the model behavior with the filter-concept associations in the CAF and FAC lists, explaining the model decision with the concepts in the generated reports, or comparing the models according to how explainable they can be in the presence of a specific concept, or overall. This thesis scrutinizes each area by using ResNet18 and VGG16 models, pre-trained on Places365-Standard and ImageNet datasets. These models are analyzed in aspects like how homogeneous they are against various concepts or concept groups and how efficient they can be in detecting conceptual similarities. Their rationale in their correct and wrong predictions is investigated by generating explanation reports. Finally, their explainability is compared by referring to the accuracy and the recall of concepts in the report or their behavior against specific concepts.

Benzer Tezler

  1. Açık bağlı veri sistemlerinde köken bazlı erişim gerçekleştirimi

    Provenance-aware query execution in open linked data systems

    FATİH TEKBACAK

    Doktora

    Türkçe

    Türkçe

    2015

    Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve KontrolEge Üniversitesi

    Bilgisayar Mühendisliği Ana Bilim Dalı

    PROF. DR. OĞUZ DİKENELLİ

  2. Yükseköğretim kurumlarında görev yapan öğretim elemanlarının mobbing algıları

    Mobbing perceptions of teaching staff working in highereducation institutions

    SULTAN SALMAN

    Yüksek Lisans

    Türkçe

    Türkçe

    2024

    Eğitim ve ÖğretimÇanakkale Onsekiz Mart Üniversitesi

    Eğitim Bilimleri Ana Bilim Dalı

    PROF. DR. İLKNUR MAYA

  3. Çağdaş sanatta mekân bağlamında denge teması üzerine okumalar ve kişisel yorumlamalar

    Readings and personal interpretations on the theme of balance in the context of space in contemporary art

    TUĞBARS DAĞLI

    Yüksek Lisans

    Türkçe

    Türkçe

    2023

    Güzel SanatlarAnkara Hacı Bayram Veli Üniversitesi

    Heykel Ana Sanat Dalı

    DOÇ. DR. NAİLE ÇEVİK

  4. Hanehalkının yoksulluk algısı üzerine bir araştırma: Bartın ili örneği

    A survey on poverty perception of household: Bartin province example

    EMİNE ELİF AYHAN

    Yüksek Lisans

    Türkçe

    Türkçe

    2017

    EkonomiBartın Üniversitesi

    İktisat Ana Bilim Dalı

    YRD. DOÇ. DR. RAMAZAN ARSLAN

  5. Sağlık iletişiminde sosyal ve duygusal öğrenme becerileri: Doktorlar üzerinde bir araştırma

    Social and emotional learning skills in health communication: A research on doctors

    MİRAY BEŞBUDAK

    Doktora

    Türkçe

    Türkçe

    2018

    Sağlık Kurumları YönetimiEge Üniversitesi

    Halkla İlişkiler ve Tanıtım Ana Bilim Dalı

    PROF. DR. GAYE EREL