Geri Dön

Differensiyellenemeyen optimizasyon problemleri için zayıf subgradyant temelli çözüm yöntemleri

Weak subgradients based solution methods in nonconvex and nonsmooth optimization

  1. Tez No: 458982
  2. Yazar: GÜLÇİN DİNÇ YALÇIN
  3. Danışmanlar: PROF. DR. REFAİL KASIMBEYLİ
  4. Tez Türü: Doktora
  5. Konular: Endüstri ve Endüstri Mühendisliği, Industrial and Industrial Engineering
  6. Anahtar Kelimeler: Differansiyellenemeyen optimizasyon, dışbükey olmayan optimizasyon, kısıtsız optimizasyon, zayıf subgradyant, çözüm algoritması, Nonsmooth optimization, nonconvex optimization, unconstrained optimization, weak subgradient, solution algorithm
  7. Yıl: 2017
  8. Dil: Türkçe
  9. Üniversite: Anadolu Üniversitesi
  10. Enstitü: Fen Bilimleri Enstitüsü
  11. Ana Bilim Dalı: Endüstri Mühendisliği Ana Bilim Dalı
  12. Bilim Dalı: Belirtilmemiş.
  13. Sayfa Sayısı: 107

Özet

Bu tezin amacı, differansiyellenemeyen ve dışbükey olmayan kısıtsız optimizasyon problemleri için zayıf subgradyant kavramı kullanılarak bir çözüm algoritması geliştirmektir. Zayıf subgradyant kavramı, fonksiyonların grafiklerinin, dışbükey analizdeki hiperdüzlemler yerine konilerle desteklenmesi fikrine dayandığından zayıf subgradyant dışbükeylik talep etmez ve dolayısı ile daha geniş bir fonksiyon sınıfını kapsar. Ancak zayıf subgradyantları hesaplamak kolay bir iş değildir. Bu sebeple öncelikle zayıf subgradyantların tahmini üzerinde çalışılmış ve zayıf subgradyantlar yönlü türevin zayıf subgradyantların supremumuna eşitliği hakkındaki teorem kullanılarak tahmin edilmiştir. Daha sonra zayıf subgradyant algoritması geliştirilmiş ve sabit adım uzunluğu, azalan adım uzunluğu ve dört farklı dinamik adım uzunluğu olmak üzere toplam altı adet adım uzunluğu için algoritmanın yakınsaklık özellikleri araştırılmıştır. Geliştirilen zayıf subgradyant algoritması, Python programlama dilinde kodlanmıştır. Son olarak literatürde differansiyellenemeyen ve dışbükey olmayan sadece kutu kısıtlarına sahip olan optimizasyon problemleri geliştirilen zayıf subgradyant algoritması ile çözülmüş ve algoritmanın performansı üzerinde tartışılmıştır.

Özet (Çeviri)

The aim of this thesis is to develop an algorithm for nonsmooth nonconvex optimization problems by using weak subgradient. The idea of weak subgradient is based on supporting cones to graphs of functions instead of hyperplanes in convex analysis. Therefore, weak subgradient does not require any convexty assumption and thereby involve broader class of functions. However estimating of weak subgradients is not an easy task. For this reason, firstly the estimating of weak subgradients are studied and the weak subgradients are estimated by using the equality of directional derivative and supremumu of weak subgradients. Then, the weak subgradient algorithm is developed and investigated the convergence properties for totally six stepsize parameter as constant, diminishing and four different type of dynamic step sizes. The proposed weak subgradient algorithm is coded with Python. Lastly, the test problems from literature that are nonsmooth and nonconvex and has onl box constraints are solved by the proposed weak subgradient algorithm and the performance of the algorithm is discussed.

Benzer Tezler

  1. Diferensiyellenemeyen amaç fonksiyonları için düzgünleştirme yaklaşımı ve yeni bir global optimizasyon tekniği

    Smoothing approach for nonsmooth objective functions and a new global optimization technique

    NURULLAH YILMAZ

    Doktora

    Türkçe

    Türkçe

    2018

    MatematikSüleyman Demirel Üniversitesi

    Matematik Ana Bilim Dalı

    PROF. DR. AHMET ŞAHİNER

  2. Optimizasyon problemlerinin durum denklemleri ile optimum değerlerinin araştırılması

    Investigating optimum values of optimization problems with state space approach

    FIRAT EVİRGEN

    Doktora

    Türkçe

    Türkçe

    2009

    MatematikBalıkesir Üniversitesi

    Matematik Ana Bilim Dalı

    YRD. DOÇ. DR. NECATİ ÖZDEMİR

  3. Bezier eğrileri ve yüzeyleri ile modern ve klasik optimizasyon teknikleri ve uygulamaları

    Modern and classical optimization techniques with Bezier surfaces and bezier curves and their applications

    GÜLDEN KAPUSUZ

    Yüksek Lisans

    Türkçe

    Türkçe

    2017

    MatematikSüleyman Demirel Üniversitesi

    Matematik Ana Bilim Dalı

    PROF. DR. AHMET ŞAHİNER

  4. Diferansiyellenemeyen optimizasyon için bazı subgradyent metotlar

    Certain subgradient methods for nondifferentiable optimization

    EMRAH ÜNAL

    Yüksek Lisans

    Türkçe

    Türkçe

    2012

    MatematikAtatürk Üniversitesi

    Matematik Ana Bilim Dalı

    DOÇ. DR. MURAT SUBAŞI

  5. Konveks olmayan çok kriterli optimizasyon ve portföy seçimi problemi

    Nonconvex multicriteria optimization and portfolio selection problem

    GÜLDER KEMALBAY

    Yüksek Lisans

    Türkçe

    Türkçe

    2008

    EkonomiYıldız Teknik Üniversitesi

    İstatistik Ana Bilim Dalı

    PROF. DR. ABBAS AZİMLİ