A comparative study of nonlinear model predictive control and reinforcement learning for path tracking
Yol izleme için doğrusal olmayan model öngörülü kontrol ve pekiştirmeli öğrenmenin karşılaştırmalı çalışması
- Tez No: 812314
- Danışmanlar: PROF. DR. OVSANNA SETA ESTRADA
- Tez Türü: Yüksek Lisans
- Konular: Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrol, Computer Engineering and Computer Science and Control
- Anahtar Kelimeler: Belirtilmemiş.
- Yıl: 2022
- Dil: İngilizce
- Üniversite: İstanbul Teknik Üniversitesi
- Enstitü: Lisansüstü Eğitim Enstitüsü
- Ana Bilim Dalı: Kontrol ve Otomasyon Mühendisliği Ana Bilim Dalı
- Bilim Dalı: Kontrol ve Otomasyon Mühendisliği Bilim Dalı
- Sayfa Sayısı: 131
Özet
Otomotiv sektörü, sağladığı faydaların yanı sıra sürekli değişen ve gelişen yapısı nedeniyle en önemli ekonomik sektörlerden biridir. Bilgi işlem ve algılama donanımındaki keşifler ve ilerlemeler, bu endüstrinin gelişimine katkıda bulunmuştur ve sürekli insan izlemesine ihtiyaç duymadan sürüşü hedefleyen otonom sürüş teknolojisinin geliştirilmesini desteklemiştir. Böylece otonom araç teknolojileri sayesinde, riskli durumlardaki sürücü hataları azalmaktadır. Bunun yanı sıra, ulaşım güvenliği, enerji ve yakıt verimliliği arttırmak ve ayrıca trafik sıkışıklığını iyileştirmek gibi çeşitli potansiyeller sunar. Bu faydalar ve otonom araçlara artan ilgi, gelişmiş sürüş sistemlerinin geliştirilmesini teşvik ediyor ve çok çeşitli çalışma alanları sunuyor. Bu tezde, otonom araçların yol izleme problemi incelenmiş ve iki yol izleme yönteminin karşılaştırmalı bir analizi sunulmuştur. Seçilen yöntemlerden biri model kestirimci kontrol (MPC), diğeri ise pekiştirmeli öğrenme algoritması yumuşak aktör-kritik (SAC) yöntemidir. Modern optimal kontrol yöntemlerinden model kestirimci kontrol, yüksek performansı ve diğer kontrol yöntemlerine göre sağladığı faydaları nedeniyle çok çeşitli yol izleme problemlerinde uygulanmaktadır. MPC'nin diğer yöntemlere kıyasla faydaları, çok girişli çok çıkışlı sistemleri idare etme, çoklu hedefleri optimize etme, doğrusal olmayan modellerle çalışma, optimizasyon problemine gelecekteki adımları dahil etme, bozucuların üstesinden gelme ve girdiler, çıktılar ve durumlardaki kısıtlamalarla başa çıkma yeteneğidir. Ayrıca, gerçek zamanlı uygulamalar ve paralel hesaplama gücündeki gelişmeler sayesinde model kestirimci kontrol daha popüler hale gelmektedir. Temel olarak model kestirimci kontrol, sistem kısıtlamalarını ve hedeflerini hesaba katarak maliyet fonksiyonunu oluşturur ve bunu minimize edecek belirli bir tahmin ufku boyunca optimal kontrol girdilerini belirler. Sistem modeli, gelecekteki durum tahminlerini elde etmek için kullanılır ve bu gelecek durum tahminleri, sistemin istenen davranışını belirleyen maliyet fonksiyonuna dahil edilir. Mevcut zaman adımı ve sistemin durumu için optimizasyon problemi yürütülür ve optimal kontrol giriş dizileri oluşturulur. Ardından, ortaya çıkan optimal dizinin yalnızca ilk girişi sisteme uygulanır. Bu prosedür, sonraki zaman adımlarının her biri için gerçekleştirilir. Bu tezde problem, doğrusal olmayan bir araç modeli kullanıldığı için doğrusal olmayan model kestirimci kontrol problemi (NMPC) olarak ele alınacaktır. Doğrusal olmayan model kestirimci kontrol problemleri, optimal kontrol problemleri olarak ifade edilir ve çoklu atış yöntemi, optimal kontrol problemini doğrusal olmayan bir optimizasyon problemine dönüştürmek için kullanılır ve daha sonra optimizasyon yazılımı IPOPT kullanılarak çözülür. Araç modeli, model kestirimci kontrolün gerektirdiği temel şeylerden biridir ve bir araç modeli, soruna ve performans gereksinimlerine bağlı olarak değişen derecelerde karmaşıklıkla modellenebilir. Araçları modellemenin, yalnızca geometrik olarak dikkate alarak araç üzerine etkiyen kuvvetleri göz ardı eden matematiksel bir araç hareketi tanımından oluşan kinematik model ve hareketi etkileyen kuvvetleri içeren dinamik model gibi birçok farklı yolu vardır. Ayrıca araç modelleri, çeşitli lastik modelleri ile farklı şekilde tanımlanabilmektedir. Bu iki ana yöntemin birbirine göre avantaj ve dezavantajları vardır. Temel olarak, kinematik model yanal kuvvetler nedeniyle yüksek hızlarda düşük performans gösterirken, dinamik model yüksek hızlarda yüksek performans göstermekte ancak lastik modellerinin düşük hızlarda tekil hale gelmesi nedeniyle dur-kalk durumlarında ve düşük hızlarda kullanılamamaktadır. Ayrıca, kinematik modelin sadece iki parametresi olduğu için sistem tanımlama işlemi kinematik model için dinamik modele göre daha kolaydır. Ayrıca tezin amaçlarından biri de araçların minimum araç modeli bilgisi ile kontrol edilebileceğini göstermektir. Bu nedenle, yalnızca kütle merkezinden akslara kadar olan mesafeleri gerektirdiği için kinematik model kullanılmıştır. Kontrol yöntemlerinde, parametreler manuel olarak veya optimizasyon algoritmaları ile ayarlanmasını gerekir ve bu yaklaşımlar her zaman yeni koşullara genelleme yapma yeteneğine sahip değildir. Ancak yeni koşullara genelleme yeteneği ile akıllı yöntemler öne çıkar. Ayrıca kontrolör için araç modeline ihtiyaç duyulurken, akıllı yöntemler için her zaman duyulmaz. Sürüş görevini otomatikleştirmek için otonom sürüş çalışmalarına derin öğrenme ve makine öğrenimi gibi akıllı yöntemler dahil edilir. Bu yöntemler, araştırmacıların istenen davranışı belirlemesine, sisteme istenen davranışı gerçekleştirmesini öğretmesine ve davranışlarını diğer ortamlara genelleştirmesine olanak tanır. Pekiştirmeli öğrenme, sürüş görevini otomatikleştirmeyi başarmak için tercih edilen yöntem olarak seçilmiştir. Bir öğrenen ajan, çevre ile etkileşime girererek deneyimler toplar. Ayrıca çevre, ödül sinyalleri şeklinde geri bildirim sağlar. Ajan, olumlu ödül sinyallerini en üst düzeye çıkarmak için motive olduğundan, ajan, belirli talimatlar olmadan kendi deneyimlerinin bir sonucu olarak ne yapacağını öğrenir. Ancak, pekiştirmeli öğrenme problemi, ajanın durumları arttıkça içinden çıkılmaz bir hal alır. Buna çözüm, derin öğrenme ve pekiştirmeli öğrenmenin birleştirilmesiyle bulunmuş ve bunun sonucunda derin pekiştirmeli öğrenme ortaya çıkmıştır. Derin pekiştirmeli öğrenme yöntemleri, çevresel bir modele sahip olup olmadıklarına veya politikayı optimize etme biçimlerine veya eğitimde farklı politikalar kullanıp kullanmamalarına göre sınıflandırılabilir. Yöntemler ileleyen bölümlerde tartışılacaktır. Pek çok yöntem arasından, yumuşak aktör-kritik öğrenme yöntemi, diğer birçok güçlü yönteme kıyasla hem verimlilik hem de kararlılık açısından daha iyi performans gösterdiği için ve parametrelerinin kolay ayarlanması nedeniyle bu tez için seçilmiştir. SAC, aktör-kritik ve maksimum entropi pekiştirmeli öğrenme yöntemlerini birleştiren politika dışı bir yöntemdir. Maksimum entropi pekiştirmeli öğrenme daha önce de bir takım çalışmalarda kullanılmış ancak genel olarak DDPG gibi son yüksek performanslı algoritmaları geçememiştir. Kısaca, daha fazla keşif yeteneğine sahip stokastik politikalar üretmek için, bu algoritmada amaç fonksiyonuna entropi öğesi eklenir. Sonuç olarak, ajan, diğer standart pekiştirme algoritmalarında olduğu gibi yalnızca beklenen ödülü maksimize etmek yerine, hem beklenen ödülü hem de entropiyi maksimize ederek öğrenmeyi başarır. Pekiştirmeli öğrenmede ajanların eğitimiyle ilgili en önemli yönlerinden biri, çok fazla veri gerektirmeleri ve öğrenmelerinin uzun zaman almasıdır. Bunları telafi etmek için geçmiş deneyimlerin kullanılmasına izin veren mekanizmalar olan deneyim tekrarları belleği kullanılır ve bunun sonucunda öğrenmenin kararlılaştığı ve gerekli deneyim miktarının azaldığı gözlemlenir. Bu tezde, farklı deneyim tekrarları belleği yöntemleri SAC ile uygulanmış ve performansları incelenmiştir. Parametre güncellemeleri sırasında, bellekteki deneyimler, temel deneyim tekrarları belleğinde tekdüze örneklenir. Öncelikli deneyim tekrarı (PER), bu tezde kullanılan deneyim tekrarı yöntemlerinden biridir ve temel olarak yüksek öneme sahip deneyimleri daha sık örneklemektedir. Diğer bir yöntem, yakın zamanda gözlemlenen deneyimin önemini vurgulamak için son deneyimlerden daha agresif bir şekilde örnekleme yapam yakın tarihli deneyimi (ERE) yöntemidir. Bu yöntemler, PER'in çok sayıda çalışmada etkisini göstermiş olması ve ERE'nin verimlilik açısından bazı uygulamalarda PER'den daha iyi performansa sahip olduğu için seçilmiştir. Ancak yol takip probleminde ERE'nin performansı PER ile karşılaştırılmamıştır, bu tezde amaçlardan biri aracın yol izleme görevindeki performanslarını incelemektir. Simülasyon ortamı, kontrol ve görsel unsurlar açısından olabildiğince gerçekçi olmayı hedefleyen CARLA simülatörü olarak seçilmiştir. CARLA'da birkaç şehir mevcuttur ve bu tez için iki farklı şehir seçilmiştir. Ayrıca aracın izleyeceği referans değerlerin de belirlenmesi gerekir. Bu amaçla seçilen şehirler için yollar oluşturulmuş ve aracın takip etmesi için geçiş noktaları oluşturulmuştur. Daha sonra, referans yol noktalarının düzgün ve sürekli olması istendiğinden, yol noktaları için bir optimizasyon yöntemi olarak kübik spline interpolasyon yöntemi kullanılmıştır. Bu işlemler sonucunda referans sapma açısı, x ve y konumları elde edilmiştir. Ayrıca hız referansı sabit referans olarak farklı değerlerde verilmiştir. Lineer olmayan model kestirimli kontrol ve yumuşak aktör-kritik, verilen yolu takip etmek için hem yanal hem de uzunlamasına kontrolden sorumludur. Boyuna kontrolör olarak hedef hıza ulaşmak için ivmeyi kontrol ederler ve yanal kontrolör olarak referans yolunu takip etmek için direksiyon simidini değiştirirler. Bu, her ikisinin de direksiyon açısı ve hızlanma komutu olmak üzere iki işlem çıkışına sahip olduğu anlamına gelir. Lineer olmayan model kestirimli kontroldeki durumlar, kinematik bisiklet modelinin durumlarıdır ve CARLA tarafından sağlanan bir Tesla Model 3 aracının parametreleri kullanılır. SAC'daki durumlar ise NMPC durumlara benzer seçilmiştir ve direksiyon ve hızlanma komutlarıdan, hedef hızından ve ufuk bilgilerini yansıtmak için 10 adım ilerisi kadar referans takip hatalarından oluşmaktadır. Referans yolu ile izlenen yol arasındaki hatayı en aza indirmeyi amaçlayan lineer olmayan model kestirimli kontrol için yol takip hatalarından oluşan bir maliyet fonksiyonu tanımlanmıştır. Maliyet fonksiyonu için en iyi ağırlık katsayıları birçok denemeden sonra belirlenmiştir. Ayrıca, optimizasyon problemine katılmak için direksiyon açısı ve ivmelenme kısıtlamaları tanımlanmıştır. Daha sonra, bu lineer olmayan model kestirimli kontrol problemini formüle etmek ve optimizasyon problemini çözmede kullanılan IPOPT çözücüye bir arayüz sağlamak için algoritmik türevlenebilirlik ve sayısal optimizasyon için sembolik bir arayüz olan CASADI kullanılır. Öte yandan, SAC ajanının yolu izlemesi için, birçok denemeden sonra ajanın eylemlerine göre maksimize edeceği uygun bir ödül fonksiyonu hazırlanır. Ayrıca, araç şeritten çıkarsa, çok yavaş hareket ederse ve bir şeye çarparsa simülasyonun bittiği yerde son koşullar oluşturulur. SAC ajanının eğitiminde kullanılacak ağ, eylemlere karar veren bir aktör ağı ve eylemlerin ne kadar iyi olduğunu ölçen bir kritik ağdan oluşur. Bu ağlar, SAC'ın orijinal makalesindeki hiperparametrelerle PyTorch ile uygulanmaktadır. Ayrıca PER ve ERE ile SAC uygulamasında, bellekler için hiperparametreler de orijinal makalelerindeki uygun bulunan değerlerden alınmıştır. SAC ajanı, 2000 bölüm boyunca seçilen şehirden oluşturulan 10 ve 5 farklı yollar ile CARLA'da eğitilir. Bu iki eğitim sonucunda 10 farklı yol üzerinde eğitilen ajanın daha hızlı yakınsadığı gözlemlenmiştir, dolayısıyla SAC'ın diğer belleklerle eğitimine 10 farklı yol ile devam edilmiştir. Farklı belleklerle eğitimden sonra, SAC+PER ve SAC+ERE, temel bellekli SAC'dan daha hızlı yakınsamıştır. Bu gelişmiş bellekler ile uygulamaların örnekleme verimliliğini artırdığını gösterir. SAC+ERE, normal bellekli SAC'a göre daha hızlı yakınsamasına rağmen, SAC+PER'den daha hızlı yakınsamamıştır. Bu eğitimler 5 ve 6 m/s rastgele hedef hızlarla yapılır, daha sonra en hızlı yakınsamış ajan olan SAC+PER ajanı için 5 ile 8 m/s arasındaki hedef hızlar ile eğitime devam edilir. Yol izleme performansını incelemek için simülasyonlar eğitimde kullanılmamış 5 farklı yol üzerinde gerçekleştirilir. Sonuçlar her bir yol izleme yöntemi için tartışılmış ve aracın tüm yaklaşımlar için küçük bir hata payı ile referans yörüngeyi takip edebileceği gösterilmiştir. Bu, SAC ajanlarının görünmeyen pistlerde iyi performans gösterdikleri için genelleme yeteneğine sahip olduklarını göstermektedir. NMPC ve SAC ajanlarının performansları birbirine çok yakın olmasına rağmen, SAC ajanları hedef hız takibinde NMPC'den daha iyi performans gösterir ve NMPC, sapma açısı izlemede daha iyi performansa sahiptir. Ayrıca beklendiği gibi, kinematik modele sahip NMPC, hız arttıkça daha kötü performans göstermiştir. Ayrıca SAC+ PER ve SAC+ ERE'nin performansı düşürmeden örnek verimini artırdığı da gözlemlenmiştir.
Özet (Çeviri)
One of the most financially significant industries is the automotive industry because of the benefits as well as the fact that it is always evolving and changing. Discoveries in computing and sensing hardware contributed to the evolution of this industry and led to the development of autonomous driving technology. Besides that, they offer several potentials for improving transportation safety, energy and fuel efficiency, as well as traffic congestion. These benefits and increasing attention to autonomous vehicles encourage the development of advanced driving systems. In this thesis, the path tracking problem of autonomous vehicles is investigated and a comparative analysis of two path tracking methods is presented. One of the selected methods is model predictive control and the other is a reinforcement learning algorithm soft actor-critic method. The model predictive controller is applied in a wide variety of path tracking problems due to its high performance and benefits over other control methods. The benefits of MPC are the ability to handle multi-input multi-output systems, optimize multiple objectives, work with nonlinear models, incorporate future steps into the optimization problem, overcome disturbances, and deal with constraints on the inputs, outputs, and states. Basically, MPC determines optimal control inputs for a given prediction horizon by minimizing the cost function while taking the system constraints and objectives into account. The system model is used to obtain future state predictions and these future state predictions are included in the cost function that determines the desired behaviour of the system. The optimization problem is solved for the current time step and system state, resulting in the generation of optimal control input sequences. Then, only the first input of the resulting optimal sequence is given to the system. This procedure is performed for each time step. In this thesis, the problem will be handled as a nonlinear model predictive control problem since a nonlinear vehicle model is used. NMPC problems are expressed as optimal control problems (OCP) and the multiple shooting method is used to transform the OCP into a nonlinear optimization problem (NLP) which is addressed by utilizing the optimization software package IPOPT. A vehicle model is one of the main things that MPC requires, and a vehicle model may be modelled with varying degrees of complexity depending on the problem and performance needs. There are several of different way to model vehicles such as a kinematic model which consists solely of a mathematical description of vehicle motion taken into account geometrically and ignoring the forces acting on the vehicle and a dynamic model which includes the forces affecting motion. Additionally, vehicle models can be described differently with various tire models. Basically, the kinematic model shows poor performance at high speeds due to lateral forces, whereas dynamical model shows high performance at high speeds but cannot be used in stop-and-go situations due to tire models becoming singular at low speeds. Additionally, the system identification process is easier for kinematic model since the kinematic model has only two parameters. Furthermore, one of the objectives of the thesis is to show that vehicles can be controlled with the minimum knowledge of the vehicle model. Therefore, a kinematic model is employed as it requires only distances from center of mass to axles. Control methods require parameters to be tuned manually or by optimization algorithms, and these approaches are not always capable of generalizing to new conditions, but intelligent methods arise with their ability to generalize to new conditions. In addition, while the vehicle model is needed for the controller, it is not always needed for intelligent methods. Intelligent methods like deep and machine learning have been included in autonomous driving studies to automate the driving task. These methods enable researchers to specify the desired behavior, teach the system to perform the desired behavior, and generalize their behaviors. Reinforcement learning has been selected as the method of choice to achieve automating the driving task. A learner agent interacts with the environment and collects experiences. Also, the environment gives feedback with reward signals. Because the agent is motivated to maximize positive reward signals and learns what to do as a result of its own experiences without specific instructions. However, the reinforcement learning problem becomes intractable as the states of the agent increase. The solution to this was found by combining deep learning and reinforcement learning and as a result, deep reinforcement learning has emerged. Deep reinforcement learning problems can be classified according to whether they have an environmental model or the way they optimize policy or whether they use different policies in training. Among many types, the soft actor-critic learning method is chosen for this thesis because it shows outperforming performance regarding both efficiency and stability compared to many other powerful methods. The soft actor-critic is an off-policy method that combines actor-critic and maximum entropy reinforcement learning methods. In order to generate stochastic policies with more exploration abilities, the entropy element is introduced to the objective function in this algorithm. As a result, the agent achieves learning by maximizing both expected reward and entropy rather than only maximizing expected reward as in other standard reinforcement algorithms. One of the important key parts of training reinforcement learning agents is that they require a lot of data and take a long time to learn. However, experience replays, which are mechanisms that allow using past experiences, are employed and it is observed that the learning is stabilized and the amount of experience required is decreased. In this thesis, SAC with different buffers are implemented and their efficiencies are examined. During parameter updates, experiences in the buffer are sampled uniformly in the vanilla experience replay. Prioritized experience replay (PER) is one of the experience replay methods used in this thesis, and it basically samples high important experiences more frequently. Emphasizing recent experience (ERE) is another strategy that samples more aggressively from recent experiences to emphasize the importance of the recently observed experience. These methods were chosen because PER has been shown to be effective in numerous studies, and ERE outperforms PER in some applications in terms of efficiency. However, the performance of ERE in the path tracking problem has not been compared with the PER and one of the aims of this thesis is to examine their efficiency in vehicle driving task. The simulation environment is chosen as CARLA simulator, which aims to be as realistic as possible in terms of control and visual elements. Several towns are available in CARLA, and two different ones have been chosen for this thesis. Also, it is necessary to establish the reference values that will be followed by the vehicle. For this purpose, paths were created for the selected towns and waypoints were produced for the vehicle to follow. Then, the cubic spline interpolation method was used as an optimization method for the waypoints because it is desired that the reference waypoints should be smooth and continuous. As a result of these operations, reference yaw angle and x and y positions were obtained. In addition, the speed reference is given in different values as a fixed reference. NMPC and SAC are responsible for both lateral and longitudinal control to follow the given path. As a longitudinal controller, they control the acceleration in order to achieve the target speed, and as a lateral controller, they change the steering wheel to track the reference path. This means that both have two action outputs which are steering angle and acceleration command. The states in NMPC are the states of the kinematic bicycle model, and the parameters of a Tesla Model 3 vehicle provided by CARLA are used. The states in SAC are chosen similar to the NMPC states and consist of steering and acceleration commands, target speed and reference tracking errors up to 10 steps ahead to reflect horizon information. A cost function consisting of tracking errors is constructed to minimize the error between the reference and followed paths for NMPC. The best weight coefficients of cost function are found after several experiments. Furthermore, steering angle and acceleration constraints are defined to participate in the optimization problem. Then, a symbolic framework CASADI is used to formulate this NMPC and provides an interface to IPOPT solver for solving the optimization problem. On the other side, for the SAC agent to follow the path, an appropriate reward function is prepared after many trials, which the agent will maximize according to its actions. Also, terminal conditions are created where the simulation ends if the agent goes out of lane, moves too slowly, and hits something. The network to be used in the training of the SAC agent consists of an actor network that decides on the actions and a critic network that measures how well the actions are. These networks are implemented with PyTorch library and hyperparameters for networks and buffers are taken from the original papers of the methods. The SAC agent is trained in CARLA on 10 and 5 different paths over 2000 episodes and it is observed that the agent trained on 10 different paths converged faster, so the training with other buffers are done on 10 different paths. After training with buffers, SAC+PER and SAC+ERE converged faster than SAC with vanilla buffer. It shows that the advanced buffer implementations enhance sampling efficiency. These trainings are done with random target velocities of 5 and 6 m/s, then for the SAC+PER agent, which is the fastest converging agent, the training is continued for the target velocities with 5 to 8 m/s. Simulations are carried out on 5 different paths to investigate path tracking performance. The results are discussed for each method and it is shown that the vehicle can follow the reference trajectory with a small margin of error for all approaches. This demonstrates that SAC agents have the ability to generalize since they performed well on unseen tracks. Although the performances of NMPC and SAC agents are very close to each other, SAC agents outperform NMPC in target velocity tracking and NMPC has better performance in yaw angle tracking. Also, as expected, the NMPC with the kinematic model performed worse as the speed increased. Furthermore, it is also observed that SAC+ERE and SAC+PER increase sample efficiency without reducing the performance.
Benzer Tezler
- Lifli polimerle farklı biçimlerde güçlendirilmiş betonarme kirişlerin eğilme performanslarının belirlenmesi
Flexural performance evaluation of rc beams differently strengthened with fibre reinforced polymer
İLKNUR DALYAN
Doktora
Türkçe
2019
İnşaat MühendisliğiYıldız Teknik Üniversitesiİnşaat Mühendisliği Ana Bilim Dalı
PROF. DR. BİLGE DORAN
- Design, analysis and development of optimal satellite attitude control system
Optimal uydu yönelim kontrol sistemi tasarım, analiz ve geliştirilmesi
EMRE SAYIN
Yüksek Lisans
İngilizce
2023
Astronomi ve Uzay Bilimleriİstanbul Teknik ÜniversitesiUçak ve Uzay Mühendisliği Ana Bilim Dalı
DR. ÖĞR. ÜYESİ İSMAİL BAYEZİT
- Uyarlamalı araç takip sistemlerinde model öngörülü kontrol yöntemleri: Karşılaştırmalı bir çalışma
Model predictive control approaches for adaptive cruise control systems: A comparative study
UMUT KARAPINAR
Yüksek Lisans
Türkçe
2017
Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrolİstanbul Teknik ÜniversitesiKontrol ve Otomasyon Mühendisliği Ana Bilim Dalı
PROF. DR. AFİFE LEYLA GÖREN
- Optimizing rotary-wing UAV trajectory tracking: A comparative study of optimization methods
Döner kanatlı İHA yörünge takibinin optimize edilmesi: Optimizasyon yöntemlerinin karşılaştırmalı bir çalışması
AHMET SABAH
Yüksek Lisans
İngilizce
2024
Havacılık ve Uzay Mühendisliğiİstanbul Teknik ÜniversitesiUçak ve Uzay Mühendisliği Ana Bilim Dalı
DR. ÖĞR. ÜYESİ İSMAİL BAYEZİT
- Atık su arıtım tesislerinin model öngörmeli kontrolü
Model predictive control of wastewater treatment plants
EVRİM AKYÜREK
Yüksek Lisans
Türkçe
2009
Kimya MühendisliğiAnkara ÜniversitesiKimya Mühendisliği Ana Bilim Dalı
PROF. DR. RIDVAN BERBER