Differensiyellenemeyen optimizasyon problemleri için zayıf subgradyant temelli çözüm yöntemleri
Weak subgradients based solution methods in nonconvex and nonsmooth optimization
- Tez No: 458982
- Danışmanlar: PROF. DR. REFAİL KASIMBEYLİ
- Tez Türü: Doktora
- Konular: Endüstri ve Endüstri Mühendisliği, Industrial and Industrial Engineering
- Anahtar Kelimeler: Differansiyellenemeyen optimizasyon, dışbükey olmayan optimizasyon, kısıtsız optimizasyon, zayıf subgradyant, çözüm algoritması, Nonsmooth optimization, nonconvex optimization, unconstrained optimization, weak subgradient, solution algorithm
- Yıl: 2017
- Dil: Türkçe
- Üniversite: Anadolu Üniversitesi
- Enstitü: Fen Bilimleri Enstitüsü
- Ana Bilim Dalı: Endüstri Mühendisliği Ana Bilim Dalı
- Bilim Dalı: Belirtilmemiş.
- Sayfa Sayısı: 107
Özet
Bu tezin amacı, differansiyellenemeyen ve dışbükey olmayan kısıtsız optimizasyon problemleri için zayıf subgradyant kavramı kullanılarak bir çözüm algoritması geliştirmektir. Zayıf subgradyant kavramı, fonksiyonların grafiklerinin, dışbükey analizdeki hiperdüzlemler yerine konilerle desteklenmesi fikrine dayandığından zayıf subgradyant dışbükeylik talep etmez ve dolayısı ile daha geniş bir fonksiyon sınıfını kapsar. Ancak zayıf subgradyantları hesaplamak kolay bir iş değildir. Bu sebeple öncelikle zayıf subgradyantların tahmini üzerinde çalışılmış ve zayıf subgradyantlar yönlü türevin zayıf subgradyantların supremumuna eşitliği hakkındaki teorem kullanılarak tahmin edilmiştir. Daha sonra zayıf subgradyant algoritması geliştirilmiş ve sabit adım uzunluğu, azalan adım uzunluğu ve dört farklı dinamik adım uzunluğu olmak üzere toplam altı adet adım uzunluğu için algoritmanın yakınsaklık özellikleri araştırılmıştır. Geliştirilen zayıf subgradyant algoritması, Python programlama dilinde kodlanmıştır. Son olarak literatürde differansiyellenemeyen ve dışbükey olmayan sadece kutu kısıtlarına sahip olan optimizasyon problemleri geliştirilen zayıf subgradyant algoritması ile çözülmüş ve algoritmanın performansı üzerinde tartışılmıştır.
Özet (Çeviri)
The aim of this thesis is to develop an algorithm for nonsmooth nonconvex optimization problems by using weak subgradient. The idea of weak subgradient is based on supporting cones to graphs of functions instead of hyperplanes in convex analysis. Therefore, weak subgradient does not require any convexty assumption and thereby involve broader class of functions. However estimating of weak subgradients is not an easy task. For this reason, firstly the estimating of weak subgradients are studied and the weak subgradients are estimated by using the equality of directional derivative and supremumu of weak subgradients. Then, the weak subgradient algorithm is developed and investigated the convergence properties for totally six stepsize parameter as constant, diminishing and four different type of dynamic step sizes. The proposed weak subgradient algorithm is coded with Python. Lastly, the test problems from literature that are nonsmooth and nonconvex and has onl box constraints are solved by the proposed weak subgradient algorithm and the performance of the algorithm is discussed.
Benzer Tezler
- Diferensiyellenemeyen amaç fonksiyonları için düzgünleştirme yaklaşımı ve yeni bir global optimizasyon tekniği
Smoothing approach for nonsmooth objective functions and a new global optimization technique
NURULLAH YILMAZ
Doktora
Türkçe
2018
MatematikSüleyman Demirel ÜniversitesiMatematik Ana Bilim Dalı
PROF. DR. AHMET ŞAHİNER
- Optimizasyon problemlerinin durum denklemleri ile optimum değerlerinin araştırılması
Investigating optimum values of optimization problems with state space approach
FIRAT EVİRGEN
Doktora
Türkçe
2009
MatematikBalıkesir ÜniversitesiMatematik Ana Bilim Dalı
YRD. DOÇ. DR. NECATİ ÖZDEMİR
- Bezier eğrileri ve yüzeyleri ile modern ve klasik optimizasyon teknikleri ve uygulamaları
Modern and classical optimization techniques with Bezier surfaces and bezier curves and their applications
GÜLDEN KAPUSUZ
Yüksek Lisans
Türkçe
2017
MatematikSüleyman Demirel ÜniversitesiMatematik Ana Bilim Dalı
PROF. DR. AHMET ŞAHİNER
- Diferansiyellenemeyen optimizasyon için bazı subgradyent metotlar
Certain subgradient methods for nondifferentiable optimization
EMRAH ÜNAL
- Konveks olmayan çok kriterli optimizasyon ve portföy seçimi problemi
Nonconvex multicriteria optimization and portfolio selection problem
GÜLDER KEMALBAY
Yüksek Lisans
Türkçe
2008
EkonomiYıldız Teknik Üniversitesiİstatistik Ana Bilim Dalı
PROF. DR. ABBAS AZİMLİ