Geri Dön

Improved knowledge distillation with Dynamic Network Pruning

Dinamik Ağ Budama yöntemiyle geliştirilmiş bilgi damıtma

  1. Tez No: 594829
  2. Yazar: EREN ŞENER
  3. Danışmanlar: DR. ÖĞR. ÜYESİ EMRE AKBAŞ
  4. Tez Türü: Yüksek Lisans
  5. Konular: Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol, Computer Engineering and Computer Science and Control
  6. Anahtar Kelimeler: Belirtilmemiş.
  7. Yıl: 2019
  8. Dil: İngilizce
  9. Üniversite: Orta Doğu Teknik Üniversitesi
  10. Enstitü: Fen Bilimleri Enstitüsü
  11. Ana Bilim Dalı: Bilgisayar Mühendisliği Ana Bilim Dalı
  12. Bilim Dalı: Bilgisayar Mühendisliği Bilim Dalı
  13. Sayfa Sayısı: 62

Özet

Evrişimli sinirsel ağların mobil veya gömülü cihazlara yerleştirilmesi çoğu zaman sınırlı bellek ve hesaplama kaynakları tarafından kısıtlanır. Bu kısıtlama, özellikle çok büyük olma eğiliminde olan ve uzun çıkarım süreleri gerektiren başarılı ağlar için önemli bir sorundur. Geçmişte sinir ağlarını sıkıştırmak için budama, düzenlileştirme, nicemleme veya damıtma temelli birçok alternatif yaklaşım geliştirilmiştir. Bu tez çalışmasında, büyük bir öğretmen ağının rehberliğinde küçük bir öğrenci ağını dinamik bir şekilde sıkıştırarak eğiten Dinamik Budama ile Bilgi Damıtma (DBBD) yöntemini öneriyoruz. DBBD'de, öğrenci ağını öğretmen ağının denetiminde eğitirken, tam bağlantılı bir katmanın nöron aktivasyonlarına L_1 düzenlileştirmesi uyguluyoruz. Daha sonra aktif olmayan nöronları buduyoruz. Metodumuz, öğrenci modelinin son boyutunu kendisi otomatik olarak belirliyor. Ortaya çıkan ağların görüntü sınıflandırma veri setleri üzerindeki sıkıştırma oranını ve doğruluğunu inceleyip bunları Bilgi Damıtma (BD) metodundan elde edilen sonuçlarla karşılaştırıyoruz. Yöntemimizi BD ile karşılaştırdığımızda BD'den daha kompakt ve daha iyi doğruluk derecesine sahip modeller ürettiğini gözlemliyoruz.

Özet (Çeviri)

Deploying convolutional neural networks to mobile or embedded devices is often prohibited by limited memory and computational resources. This is particularly problematic for the most successful networks, which tend to be very large and require long inference times. In the past, many alternative approaches have been developed for compressing neural networks based on pruning, regularization, quantization or distillation. In this thesis, we propose the Knowledge Distillation with Dynamic Pruning (KDDP), which trains a dynamically pruned compact student network under the guidance of a large teacher network. In KDDP, we train the student network with supervision from the teacher network, while applying L_1 regularization on the neuron activations in a fully-connected layer. Subsequently, we prune inactive neurons. Our method automatically determines the final size of the student model. We evaluate the compression rate and accuracy of the resulting networks on image classification datasets, and compare them to results obtained by Knowledge Distillation (KD). Compared to KD, our method produces better accuracy and more compact models.

Benzer Tezler

  1. Dijital karbon ayak izinin optimizasyonu için uç cihazlarda yapay zeka ve makine öğrenmesi uygulamaları

    Artificial intelligence and machine learning applications on edge devices for digital carbon footprint optimization

    ÇAĞLAR ŞİMŞEK

    Yüksek Lisans

    Türkçe

    Türkçe

    2025

    Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve KontrolSakarya Üniversitesi

    Bilişim Sistemleri Mühendisliği Ana Bilim Dalı

    DR. ÖĞR. ÜYESİ FATİH ÇALLI

  2. Anomaly detection in ınternet of medical things using deep learning

    Anomaly detect ionin internet of medical things using deep learning

    AYŞE BETÜL BÜKEN

    Yüksek Lisans

    İngilizce

    İngilizce

    2025

    Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve KontrolSakarya Üniversitesi

    Yazılım Mühendisliği Ana Bilim Dalı

    PROF. DR. DEVRİM AKGÜN

  3. An affective framework for brain computer interfaces using transfer learning in virtual environments

    Sanal ortamlarda transfer öğrenme kullanılarak beyin bilgisayar arayüzleri için duyuşsal çerçeve oluşturulması

    MEHMET ALİ SARIKAYA

    Doktora

    İngilizce

    İngilizce

    2024

    Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrolİstanbul Teknik Üniversitesi

    Bilgisayar Mühendisliği Ana Bilim Dalı

    DOÇ. DR. GÖKHAN İNCE

  4. A few-shot learning with self-knowledge distillation approach for medical image recognition

    Tıbbi görüntü tanıma için kendinden bilgi damıtmı yaklaşımı ile birkaç atımda öğrenme

    MOHAMED EL HACEN HABIB

    Doktora

    İngilizce

    İngilizce

    2025

    Elektrik ve Elektronik MühendisliğiKocaeli Üniversitesi

    Elektronik ve Haberleşme Mühendisliği Ana Bilim Dalı

    PROF. DR. OĞUZHAN URHAN

  5. Dijital histopatolojide boya normalizasyonu için dalgacık bilgi damıtma uygulama ve analizi

    Application and analysis of wavelet knowledge distillation for stain normalization in digital histopathology

    SEFA KEKLİK

    Yüksek Lisans

    Türkçe

    Türkçe

    2024

    Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve KontrolKaradeniz Teknik Üniversitesi

    Bilgisayar Mühendisliği Ana Bilim Dalı

    PROF. DR. MURAT EKİNCİ