Geri Dön

Yapay sinir ağlarında öğrenme algoritmalarının analizi

Analysis of learning algorithms in neural networks

  1. Tez No: 39286
  2. Yazar: SEVİNÇ BAKLAVACI
  3. Danışmanlar: DOÇ.DR. LEYLA GÖREN
  4. Tez Türü: Yüksek Lisans
  5. Konular: Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol, Computer Engineering and Computer Science and Control
  6. Anahtar Kelimeler: Belirtilmemiş.
  7. Yıl: 1994
  8. Dil: Türkçe
  9. Üniversite: İstanbul Teknik Üniversitesi
  10. Enstitü: Fen Bilimleri Enstitüsü
  11. Ana Bilim Dalı: Belirtilmemiş.
  12. Bilim Dalı: Belirtilmemiş.
  13. Sayfa Sayısı: 80

Özet

ÖZET YAPAY SİNİR A?LARINDA Ö?RENME ALGORİTMALARININ ANALİZİ Yapay nöral ağlar, insan beyninin paralellik, hata toleransı ve öğrenme özelliklerini taklit eden, birbirlerine yoğun olarak bağlanmış basit elemanlardan oluşur. Yapay nöronlarda biyolojik nöron yapısına özdeş bir yapı vardır. Sinapslar hücre girişleri, aksonlar diğer hücrelere bilgi taşıyan nöron çıkışlarıdır. Sinapsm fonksiyonu, işareti alan nörona gelen işareti ya durdurucu ya da uyarıcı olacak şekilde katsayı ile çarpmaktır. Yani sinapslar, nöronun girişlerine diğer tüm nöronlardan gelen işareüeri ağırlık katsayıları ile çarparlar. Nöronlar bu ağırlaştırılmış girişleri toplar, bir eşik değeri bu toplamdan çıkarır ve sonucu lineer olmayan bir fonksiyondan geçirir (Sekil 1.1). Genelde yapay nöral ağlari öğrenme kuralları eğiticili ve eğiticisiz olmak üzere ikiye ayrılır. Eğiticili öğrenmede ağa hem giriş hem de istenen çıkış girilir ve her denemeden sonra bunlar karşılaştırılarak çıkış hatası bulunur. Bu hata kabul edilebilir seviyeye ininceye kadar, nöral ağ ağırlıklarını değiştirerek iterasyon yapar. Eğiticisiz öğrenmede hiç bir hedef vektörü yoktur. Giriş vektörü sisteme uygulandığında nöral ağ, uyumlu bir çıkış üretecek şekilde kendini düzenler. Nöral ağ tabanlı bilgisayarlar, günümüz sayısal bilgisayarlarının başarısız olduğu alanlarda oldukça iyi sunmaktadır. Çok büyük miktarda paralel işleme gerektiren ve çok miktarda veriden giderek hızlı karar verme gerektiren uygulamalarda oldukça etkilidir. Özellikle Amerika ve Avrupa'da nöral ağ uygulamaları ekonomi ve endüstride başarıyla kullanılmaktadır. Türkiye'de nöral ağlarin kullanımı amacıyla gelişmiş nöral ağ simulasyon paketlerinin uygulamaları konusunda çalışılmaktadır. Aşağıda nöral ağ topolojilerine göre sınıflandırlmış öğrenme algoritmaları hakkkında bilgi verilecektir. viii1. Eğiticili Öğrenme Sistemleri: Geriye Doğru Yayılım Algoritması (Backpropagation): Bu algoritma 1972 yılında Harvard'daki bir grup araştırmacı tarafından ortaya atılmıştır. İteratif bir metoddur. Genelde basit bir sinir aği yapısında kullanılır. Amaç, çıkışlari istenilen bir değere üstel bir yaklaşıklıkla getirmektir. Bunun için de ortalama karesel hata minimize edilmeye çalışılır. Algoritma konuşma sentezi, şekil tanıma, haberleşme gibi pek çok alanda başarıyla uygulanmıştır. Uygulanması kolay bir metoddur. Daha sonra bu algoritmanın türevi olan ve değişik tür sistemlere (örneğin dinamik) yönelik değişik geriye yayılım algoritmalari ortaya atılmıştır. Almaç Temelli Öğrenme Algoritmaları: Almaç, yapısından dolayı klasik yapay sinir ağı olarak bilinir. Daha çok sınıflandırma yapılan türde öğrenme prosesleri için uygun, hızlı ve büyük kapasitede çalışabilen algoritmadır. Temel almaç öğrenme algoritmasında öğrenme verisi olarak giriş ve çikiş değerleri bulunur. Bu değerlere göre ağırlık güncelleştirilmesi yapılır. Sınıflandırma, giriş değerleri boyutunda bir hiperyüzey yardımı ile yapılır. Çıkış değerleri girişlerin hiperyüzeye göre olan bölge doğrultusunda belirlenir. Ağırlıkların adaptasyonu, gerçek almaç çıkışı ile öğrenme verisi olarak verilen çıkış değerleri arasındaki hata ile belirlenir. Eğer hata sıfırlanmışsa, öğrenme işlemi tamamlanmış saydır. Cep algoritması ve lineer makina da almaç temelli öğrenme algoritmalarıdır. Uyarlamak Rezonans Kuramı 1 (ARTİ): Eğiticili algoritma kullanan bir ağaçtır. Bu ağacın öğrenmesi kümeleme esasına dayanır. Şekil (3.9) bir ARTİ mimarisini gösterir. Giriş vektörleri arasında mevcut kümeleme ağ tarafından da öğrenilmeye çalışılır. Giriş vektörleri ikili değerlerdir. İşlemler alt katmandan üst katmana doğru yapılır. Katmanlarda yapıda bulunan ağırlıkların bir kısmı ileri, bir kısmı geri besleme ağırlığıdır. Alt katmanda karşılaştırma işlemi gerçekleştirilir. Bu iş için yeni girişin (hücre) ağırlıkları ile ileri besleme ağırlıkları karşılaştırılır. Bu ıxkarşılaştırma sonucu kazanan hücrenin geri besleme ağırlıkları değiştirilir. Üst katmanda tanıma işlemi yapılır. Eğer giriş vektörü bir kümeye konabilirse tanıma işlemi tamamlanmış olur. Stokastik Sinir Ağları İçin Öğrenme Algoritmaları: i. Benzetimli Tavlama: Metallerin kullandığı bir minimum global enerji fonksiyonu tespit yönteminden esinlenen stokastik bir metoddur. Metalürjide kullanılan MR2T2 kuralının simulasyonu kullanılmaktadır. Metaller erime derecesine kadar ısıtıldıktan sonra yavaş yavaş soğutulduğunda enerjilerinde bir değişme meydana gelir. Bu proses gerçekte mekanik moleküllerin hareketleri sırasında meydana gelen enerji değişimleridir ve genelde söz konusu değişim sırasında yapıda bir değişiklik olmaması, yer değişimlerinin (dislokasyon) ve bozulmaların oluşmaması istenir. Isınma - soğuma prosesi tamamlandıktan sonra global sistem enerjisi azalmışsa sistem yeni denge durumuna gelir. Ancak artarsa denge durumu p gibi bir olasılık fonksiyonuna göre kabul edilir. ii. Boltzmann Makinası: 1984 yılında ortaya atılmış olan metod, biyolojik sinir ağlarından esinlenmiştir. Daha sonra üzerinde yapılan çalışmalar, yapay sinir ağlarına elverişli ve mühendislik uygulamalarına uygun şekilde modifiye edilmiştir. Boltzmann makinası, Hopfield ağlarına benzetimli tavlama yöntemlerinin uygulanmış şeklidir. iii. Ortalama Alan Tavlaması (Mean Field Annealing) Ortalama alan tavlaması, benzetimli tavlama algoritmasına deterministik yaklaşım yapan bir matematik teorisidir. Belirli bir amaç fonksiyonuna göre tavlanması olarak ele alınabilecek algoritma, benzetimli tavlama algoritmasına oranla daha hızlı çalışan bir algoritmadır. GNC algoritmasını temel mantık olarak alan algoritma sürekli ve ayrık fonsiyonlara uygulanabilir. GNC, analojisini fiziksel birtakım olaylardan (örneğin zayıf zar - weak membrane) alır. Basit deterministik ve gürültülü sistemlere uygulanan ortalama alan tavlamasının optimizasyon problemleri için iyi bir algoritma olduğu yapılan denemelerde anlaşılmıştır.k-NN ve Öğrenme Vektörü Kuantalama Yöntemleri: k-NN (k-en yakın komşu yaklaşımı) ile öğrenme vektörü kuantalama yöntemleri Öklid uzaklığına göre sınıflandırma esasına dayanır, k- en yakın komşu yaklaşımında amaç öğrenilecek veriyi k kümedeki elemanların sınıflarından birine koymaktır. Verinin hangi sınıfa konacağı ise uzaklık hesabı yapılarak bulunur. Oluşturulan kümelerin tüm verileri öğrenme verisi olarak kullanılır. Ancak zaman ve bilgi saklama kapasitesini azaltmak için veriler indirgenebilir. Öğrenme verisini kuantalama metodu bir kümeli en yakın komşu yaklaşımı olarak bilinir. Öğrenme için gerekli verilerin sayısı azaltılarak sınıflandırma yapılır. Bu iş için öncelikle bir eğiticili öğrenme işlemi yapılır. Böylece sınıflandırma hatası da azaltılmış olur. Adaline - Widrow Ögreme Kuralı: ADALİNE yapısı başanm öğrenme sınıfına giren bir öğrenme algoritması kullanır. Bu öğrenme sınıfında başarırımı ölçüm fonksiyonları yardımı ile ağin ağırlıkları düzenlenir. Adaline ağının birimleri eşik elemanlarıdır. Giriş vektörü X, ağırlık vektörü Wn dur. Şekil (3.5) ADALiNE'nin geometrik yapısını göstermektedir. Her bir birimin çıkışı: Y' = W*X Ağırlık vektörü W, giriş vektörü X^in oluştuduğu n boyutlu uzayda bir hiperyüzey oluşturur. ADALİNE için çıkış vektörü, w hiperyüzeyine dik olan ve x vektörünün üzerinde yer aldığı yüzeydir. Adaptive Heuristic Critic: Genetik algoritmalara dayalı olarak ortaya atılmıştır. Değer verme ve hareket verme (action) ağlarının birarada bulunduğu çok katmanlı yapılarda her ikisinin aynı anda eğitilmesi esasına dayanır. Hareket verme ağı sisteme ilişkin bilgiyi alır ve çıkış olarak 'action' üretir. Değer verme ağı ise bu çıkışı giriş olarak alıp hatayı öngörür. Değer verme ağının güvenilirliği arttığı sürece 'action' ağı da kendini yeniler ve hataları azaltmaya çalışır. XXZaman Gecikmeli Yapay Sinir Ağlan: Zamanla değişen sistemlerin eğitilmesi için kullanılan bir ağdır. Bu ağm özelliği statik olduğu halde zamana bağımlı sistemleri eğitebilmesidir. Bu amaçla problem, bir boyutu zaman olan bir dizi haline getirilir. Bu ağlar zaman serileri üzerinde işlem yapabilme özelliğine sahip olduğu için dinamik ağlara alternatiftir. Nonlineer sistemlere uygulanabilir. Bu ağın uygulamasında giriş sekansı, sonlu sayıdaki gecikmeler ile ifade edilir. Zamana bağlı giriş vektörü (3.24) eşitliğinde olduğu gibi yazılır. Eğer F( ) ifadesi ağırlıklı lineer toplam şekline getirilirse sonlu impuls cevabı (Finite impuls response) adını alır. Eğitilmesi için geriye doğru yayılım (Back propagation) algoritmasının standart şekli kullanılır. Şekil (3.8) 1 basamaklı bir kaotik serinin tahmin edilmesi işleminin sonuçlarını göstermektedir. Brain State In A Box: Jeff Anderson'un öne sürdüğü algoritma, ağda bulunan x durumlarının birim bir küp içindeki hareketi ile tanımlanır. X durumları sadece birim küp üzerinde hareket etmekle kalmaz, içerisinde de herhangi bir noktaya doğru hareket edebilir. Hareket birim küp içerisindeki noktadan başlar ve kenarlara doğru yer değiştirerek denge noktasına erişilmeye çalışılır. Tüm proses elemanları aynı anda güncelleştirilir. Değişim sona erdiğinde (yani bir denge noktasına ulaşıldığında) ağırlıklar belirlenir. Bu öğrenme algoritması, ağın iki kutuplu vektörleri öğrenmesini sağlar. 2. Eğiticisiz Öğrenme Algoritmaları: Grossberg: Filtreleme yöntemiyle öğrenme esasına dayanır. Bu öğrenme yönteminde ağırlık katsayılarının hesaplanmasında kullanılan proses elemanı bir filtreden geçirilir. Filtre bir zaman serisidir. Grossberg öğrenme algoritması 1960'larda Stephen Grossberg tarafından ortaya atılmış ve geliştirilmiştir. Burada amaç, şartsız giriş diye bilinen girişin ortalama değerinin öğrenilmesidir. Bu öğrenme şartlı girişlere XIIbağlı ağırlıkların hesaplanması yoluyla yapılır. Bundan sonra ortalama aktivite proses elemanı tarafından her bir giriş için kullanılır. Kendini Düzenleyen Dönüşüm: Sürekli bir topolojik öğrenme şeklidir. Dönüşüm (mapping) işlemi sinirli bir Öklid uzayında p gibi bir olasılık yoğunluk fonksiyonuna göre seçilen ağırlıklara bağlı olarak yapılır ve giriş olarak kullanılır. Ağın presses elemanları arasında bir yarış yapılır. Proses elemanlarının kazanan prosese uzaklığı ve hesaplama zamanı öğrenme zamanını belirler. Öğrenme prosesi devam ettikçe proses elemanlarının kazanan prosese uzaklığı azalır. Yani yarışacakları komşu sayısı düşer. Proses elemanları bir blok olarak ele alınıp ağırlık hesaplamaları yapılır. Bir bloktaki hesaplama tamamlanınca buna yakın başka bir blokta aynı yarış tekrarlanır ve sonuçlar karşılaştırılır. Değerler arasındaki fark ihmal edilebilecek düzeye geldiğinde öğrenme prosesi tamamlanmış sayılır. Topolojiye Dayalı Dönüşüm: Kohonen tarafından ortaya atılmış bir öğrenme şeklidir. Çok boyutlu bir Rn uzayından seçilen giriş işaretinin bir ya da iki boyutlu yapan sinir ağındaki işarete dönüştürülmesi temeline dayanır. Bu dönüşüm işlemi sırasında ağdaki ağırlıkların modüle edilmesi gerekir. Kohonen'in ağırlıkların modülasyonu için önerdiği metod eşitlik (4.1) te verildiği gibidir. Eşitlikte görüldüğü gibi ilgili nörona ait çıkışı etkileyen bir giriş nöron kümesi vardır ve bu nöronlara ilişkin ağırlıkların da aynı oranda değiştirilmesi gerekir. Amaç ağırlıkların değiştirilmesi ve bu işin en çabuk ve etkin şekilde sonuçlandırılmasıdır. Komşu nöron kümesinin genişliği öğrenmenin performansına dönüştürülürse öğrenme iterasyon sayısı azaltılabilir. Bu da eşitliğin komşuluk fonksiyonunun gaussian tipinde verilmesiyle yapılır (Eşitlik (4.2). Sürekli Zaman Hopfıeld Öğrenme Metodu: Hopfield, lineer olmayan dinamik sistemler için kullanılan tek katmanlı bir ağdır. Sistem parametrelerine bağlı olarak dengeli bir sistem, osilatör ya da kaotik sistem olarak kullanılabilir. En çok kullanıldiği durum, birden fazla sayıda denge noktasına sahip denge sistemleridir. Şekil (4.2). xınvektörü y, çıkış vektörü u olarak gösterilmektedir. Denge durumunun analizi için Lyapunov energy fonksiyonu kullanılır. Bu enerjinin bittiği ya da sıfırlandığı nokta denge durumudur. Denge durumunu oluşturan sistem parametreleri kazancı, V fonksiyonu ve W ağırlığıdır. W ağırlık matrisi simetrik bir matristir, kazancı belirlendikten sonra denge noktalan bulunması bir asosyatif bellek problemine dönüşür. Örneklerdeki bozukluklar daha düzgün halleriyle değiştirilir ve bellekte ağırlıklarla saklanır. Ağırlıkların hesabı için dıştan çarpım (outer product) metodu kullanılır (Eşitlik 4. 13). Ayrık Zaman Hopfield Öğrenme Metodu: Ayrık Hopfield sistemleri eşitlik (4.15,4.16) ile gösterilmiştir. Burada lineer olmayan fonksiyonların yerini sınırlayıcılar (hardlimiters) almıştır, ilk şartlar ve ağırlıklardaki sınırlamalar denge noktalarını belirler. Denge noktalan ikili vektörlerdir. W ağırlık vektörü düğümlerdeki düzeltmelerin hepsinin aynı anda (senkron) ya da ayrı ayrı (asenkron) olmasına göre değişik karakterdedir. Senkron durumda ağırlıkların simetrik ve kesin pozitif olması gerekir. Asenkron durumda sıfır ya da sıfırdan büyük olması yeterlidir. Bu şartlar sürekli zamanda Hopfıeld'e oranla daha kesindir. Doğrusal Bağlaşım Ağı (Linear Associators): Doğrusal bağlaşım ağlannın temel yapısı şekil (4.4) de gösterildiği gibidir. Amaç belirlenmiş giriş ve çıkışlann rekürsif bir şekilde öğrenilmesini sağlamaktır. (X^.Y^) gibi bir giriş-çıkış verisi sisteme verildiğinde öğrenme sonucu oluşan y', çıkış değeri y, öğrenme verisine mümkün olduğu kadar yakın olmalıdır. Bu nöral ağ yapısı için önerilmiş öğrenme algoritmalarından Hebb öğrenme kuralı X^ giriş vektörü değerlerinin ortonormal olma şartından yola çıkarak hareket eder. Eğer giriş vektörü ortonormal ise öğrenme işlemi tam olarak gerçekleşir, değilse bir hata vektörü oluşur. Widrow öğrenme kuralı ise Greville Teoremine dayanır. Fakat teoremin öne sürdüğü eşitlikte Pjj gibi bir parametrenin hesaplanması gerekir. Bu nedenle bir öğrenme kuralı için uygun değildir. Bu nedenle eşitlik bir öğrenme katsayısı eklenerek değiştirilmiş ve sonuçta ağırlıkların güncelleştirilmesi işleminin performansının çok fazla değişmediği gözlenmiştir. xivOptimal Doğrusal Bağlaşım Bellek: Optimal assosyatif çift taraflı asosyatif bellek yapısında olup bağlantı matrisi yardımıyla sistem enerji fonksiyonunu düzenleyen bir bellektir. M ile gösterilen bellek matrisi: A M=X*.Y Burada X giriş işareti, X* ise gerçek olmayan ters (pseudo-inverse) durumdur. Y ise çıkış işaretidir. Bu bellek, bilginin tekrarlanarak öğretilmesi temeline dayanır ve M matrisi öğrenme sırasındaki hatayı minimize edecek şekilde bulunur. Giriş vektörü lineer bağımlı seçilmekte fakat pratikte bu her zaman sağlanamamaktadır. Çünkü gerçek giriş saklanan Xfc vektörüne gürültü nedeniyle eşit olmamakta ve bu nedenle problemler görülebilmektedir. Ayrık Çift Taraflı Bileşik Bellek: Ayrık çift taraflı bileşik bellek nonlineer bir geri beslemeli yapay sinir ağı yapısındadır. Bilginin saklanması ve tekrarlamak çağırma ile karakterize edilir. Öğrenme kuralında amaç birbirine bağlı birimler arasındaki bağlantıya bağlı olarak ağırlıkların hesaplanmasıdır. Böylece bilgi saklanan yapının dengeli bir duruma gelmesi sağlanmaya çalışılır. Bu amaçla bir maliyet fonksiyonu tanımlanır ve fonksiyonu minimize edecek ağırlık değerleri bulunmaya çalışılır. Öğrenen Matris: Öğrenen matriste amaç, basit elektrik elemanları kullanarak oluşturulmuş yapay bir ağın öğrenmesini sağlamaktır. Ağ yapısı elektrik elemanlarından oluştuğundan öğrenme kuralı ikili mantık aritmetiği temeline dayanır, şekil (4.13) de gösterildiği gibi x vektörü giriş, y vektörü çıkıştır ve her ikisi de 0 ya da 1 değerini alabilen değişkenlerdir. Takviye Sürülmesi Modeli (Driver Reinforcement Modeli): Harry Klopf tarafından (1986, 1988) yıllarında ortaya atılmış bir modeldir ve öğrenme algoritması ayrık diferansiyel Hebbian öğrenmesi olarak tanımlanabilir. Burada amaç giriş ve çıkışa karşı düşen sinyallerin kullanıldığı nöronlar için sinapsların ağırlıkların değişimlerini hesaplamaktır. Klopf, ağırlık güncelleştirmesi sırasında kullanılan terimler için bazı sınırlamalar koymuş, eşik değerlerine göre sinyal üretilmesini sağlamıştır. XVNöronal sürme işlemi işaretin ağırlıkla olan çarpımıdır, işaretin ağırlık değişimiyle çarpımı da takviyenin miktarını belirler. Sinapsların takviyeye karşı duyarlı olduğu düşünülürse öğrenme işlemi sırasında nöronal işaret bilgisinin hızlı bir şekilde sisteme verilmesinin sağlamlık ve gürültüye karşı duyarlık sağlayabileceği gözlenebilir. Counterpropogation: Tablo tarama esasına dayanan optimal bir eğiticisiz öğrenme şeklidir. Ağın yapısı ne kadar büyük olursa doğru sonuca yaklaşım o kadar fazla olur. Burada amaç, ağırlık vektörünün seçiminde Kohonen ve Grossberg öğrenme kurallarının aynı ağ yapısında ardarda 2 farklı katmanda kullanarak hızlı öğrenme prosesi gerçekleştirmektir. İlk katmanda Kohonen öğrenme kuralı kullanılır. Öncelikle ağırlığı değiştirilecek proses elemanı seçimi bir yarışla belirlenir. Bu katmanın ağırlığı modifiye edildikten sonra ikinci katmanda Grossberg metodu ile tekrar ağırlıklar belirlenir. Ağırlık belirleme işlemi, ağırlıkların değeri sabit bir değere ulaşıncaya kadar sürer. Öğrenme prosesi tamamlandığında ağırlık katsayılarının oluşturduğu bir tablo elde edilir. Bu tablonun girişi, olasılık yoğunluk fonksiyonuna göre belirlenmiştir. Elde edilen tablo olası girişlere göre girişin ne olduğunu öğrenmiş stabil bir değerler tablosudur. Prosesîeme elemanları ne kadar çok olursa tablo o kadar geniş olur. Bu da öğrenme algoritmasının performansını arttırır. Bulanıklık ve Bulanık Sistemler: i. Bulanık Asosyatif Bellek: Bulanıklık, belirsizliğin ifadesi için tesadüflüğe alternatif olarak ortaya atılmış bir düşünce sistemidir. Bulanık kümeler çok boyutlu birim uzunlukta hiperküplerle ifade edilir. Bulanıklığı tesadüflükten ayıran olayların oluşumundaki kesinliktir. Tesadüflükte olayın oluşmasında bir belirsizlik vardır. Bulanık sistemler yukarda bahsedilen hiperküpler giriş ve çıkışları temsil edecek şekilde eşleştirme yapar. Bulanık assosyatif bellek, birtakım kurallar kullanarak giriş ve çıkış bilgilerinden hareketle sisteme gerçek bilgiye yakın olan bilgiyi öğretmeye çalışır. XVI.Bulanık Bağıntı Eşleştirmesi (Fuzzy Cognitive Map -FCM) Bu eşleştirme yöntemi sınıflandırma yapmak amacıyla kullanılır ve nedensel bağımlılıklar tespit edilerek sınıflandırma yapılmaya çalışılır. (Q,Cj) gibi bir çift olay arasındaki bağıntı doğrultulu bir ejj vektör belirler. Bu vektör 0 iken bağımlılık yoktur. Pozitif iken birindeki artma diğerinde de artmaya, azalma diğerinde de azalmaya neden olur. Negatif iken birisindeki artma diğerinde azalmaya, azalma da artmaya neden olur. Nedensellik tek taraflıdır. Daima belirlenen bir Q den Cj ye doğru olur. ey katsayılarının oluşturduğu bir E matrisine karşılık öğrenme aşamasında takviye FCM matrisi kullanılır ve F ile gösterilir. Bu F matrisi n kadar değişik konu arasındaki eşitlik (5.3) nedenselliğin gösterimi için n sayıda alt F{ matrisinden oluşur. Daha güvenilir sonuçlar alınabilmesi için ağırlıklarla takviye edilir (Eşitlik (5.4)). Ağırlıklar negatif olmayan değerlerdir ve [0,1] arasında sınırlandırılmıştır. Her bir Fj alt matrisi de istenirse ağırlık matrisi ile tekrar düzenlenebilir. Genetik Algoritmalar: Genetik algoritmalar temel düşünce kaynağını doğadaki kanunlardan alır. Doğada güçlü olan kromozomların yaşama şansı yüksek iken güçsüz kromozomlar yok olmaya mahkumdur. Doğadaki sistemlerin adaptasyonu üç safhada açıklanmaktadır: Üreme safhası, çaprazlama safhası, mutasyon safhası. Üreme safhasında yaşayacak olan kromozomlar uygunluk fonksiyonuna göre seçilir. Çaprazlama, özellikleri yeni bir kuşak belirlenmesi işlemidir. Mutasyon yerel minimadan sapma amacıyla yapılır. Bu durum, bazı zamanlarda uygunluğa daha çabuk yaklaşımı sağladığı gibi bazı zamanlarda uygun olmayan bir duruma geçilmesine neden olur. XVI 1

Özet (Çeviri)

SUMMARY ANALYSIS OF LEARNING ALGORITHMS IN NEURAL NETWORKS This study includes learning rules for different topology of Neural Networks. They are classified as supervised and unsupervised learning according to the input data they use. Chapter 1 gives a short history of neural networks and introduces the structure of a simulated neuron which is the basic element of neural networks. Chapter 2 includes different definitions and comments about learning in neural networks. Chapter 3 includes basic supervised learning algorithms. Some neural network topologies are introduced giving brief information about the learning algorithms they use. Chapter 4 is the investigation of basic unsupervised learning algorithms in the same way as in the supervised learning algorithms. Chapter 5 is the short description of Fuzzy Systems. Two main fuzzy learning algorithm is given briefly. Chapter 6 describes the Genetic Algorithms. It uses a different logic from the algorithms referred in other chapters. VI 1

Benzer Tezler

  1. Yapay sinir ağları ve derin öğrenme algoritmalarının kripto para fiyat tahmininde karşılaştırmalı analizi

    Comparative analysis of artificial neural networks and deep learning algorithms for crypto price forecast

    MÜBERRA BEYZA ODABAŞI

    Yüksek Lisans

    Türkçe

    Türkçe

    2023

    Endüstri ve Endüstri MühendisliğiSakarya Üniversitesi

    Endüstri Mühendisliği Ana Bilim Dalı

    DOÇ. DR. MERVE CENGİZ TOKLU

  2. Görüntü sınıflandırması için yapay sinir ağlarının analiz ve optimizasyonu

    Analysis and optimization of artificial neural networks for image classification

    OZAN ARSLAN

    Doktora

    Türkçe

    Türkçe

    2001

    Jeodezi ve Fotogrametriİstanbul Teknik Üniversitesi

    PROF. DR. OĞUZ MÜFTÜOĞLU

    PROF. DR. CANKUT ÖRMECİ

  3. Secure and coordinated beamforming in 5G and beyond systems using deep neural networks

    5G ve ötesi sistemlerde derin sinir ağları kullanarak güvenli ve koordineli hüzmeleme

    UTKU ÖZMAT

    Doktora

    İngilizce

    İngilizce

    2024

    Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrolİstanbul Teknik Üniversitesi

    Bilişim Uygulamaları Ana Bilim Dalı

    DR. ÖĞR. ÜYESİ MEHMET AKİF YAZICI

    DR. ÖĞR. ÜYESİ MEHMET FATİH DEMİRKOL

  4. Visual object recognition and detection using deep learning

    Derinlikli öğrenme ile görsel nesne tanıma ve tespit etme

    BURAK ÇÖREKCİOĞLU

    Yüksek Lisans

    İngilizce

    İngilizce

    2017

    Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrolİstanbul Teknik Üniversitesi

    Elektronik ve Haberleşme Mühendisliği Ana Bilim Dalı

    PROF. DR. BİLGE GÜNSEL KALYONCU

  5. Yapay sinir ağları modeli ile ses tanıma

    The voice recognition with model of artificial neural networks

    DİLEK GÜLTEKİN

    Yüksek Lisans

    Türkçe

    Türkçe

    2004

    Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve KontrolSelçuk Üniversitesi

    Bilgisayar Mühendisliği Ana Bilim Dalı

    DOÇ.DR. FATİH BOTSALI