Geri Dön

Train set complexity tunning for imbalance learning

Dengesiz öğrenme için eğitim seti karmaşıklığının ayarlanması

  1. Tez No: 887846
  2. Yazar: MEHMET ULAŞ
  3. Danışmanlar: DR. MEHMET ALİ ERGÜN
  4. Tez Türü: Yüksek Lisans
  5. Konular: Endüstri ve Endüstri Mühendisliği, Industrial and Industrial Engineering
  6. Anahtar Kelimeler: Belirtilmemiş.
  7. Yıl: 2024
  8. Dil: İngilizce
  9. Üniversite: İstanbul Teknik Üniversitesi
  10. Enstitü: Lisansüstü Eğitim Enstitüsü
  11. Ana Bilim Dalı: Endüstri Mühendisliği Ana Bilim Dalı
  12. Bilim Dalı: Endüstri Mühendisliği Bilim Dalı
  13. Sayfa Sayısı: 57

Özet

Makine öğrenimi algoritmalarının çoğu sınıflandırma problemini ele alırken iyi sonuçlar verdiği bilinir, ancak bu algoritmalar genellikle dengeli bir eğitim seti varsayar. Bu durum, makine öğrenimi algoritmalarının eğitim sürecinde belirli bir maliyet hedef fonksiyonunu minimize etmeye çalışması nedeniyle ortaya çıkar. Bu minimizasyon süreci sırasında, bir sınıf baskın olduğunda, bu sınıf minimizasyon sürecine egemen olma eğiliminde olur ve aslında baskın sınıf lehine öngörüler üreterek minimizasyon hedefini yerine getirmiş olur. Başka bir deyişle, yaygın olan sınıf için öngörüler üretmek, minimizasyon amacını büyük ölçüde karşılayacaktır. Bu durum, birçok gerçek dünya sınıflandırma probleminin dengesiz veri setleri sergilemesi nedeniyle problematik bir durum oluşturur. Sahtekarlık tespiti, müşteri kaybı tahmini ve hastalık teşhisi gibi gerçek dünya senaryoları genellikle dengesiz veri setlerini içerir. Bu sorunun üstesinden gelmek için, sınıflandırma çözümlerinin geliştirilmesinde istenen sonuç, azınlık sınıfına ait örneklerin doğru bir şekilde tanımlanmasıdır. Bu problemlerin bağlamında, azınlık sınıfına ait örneklerin tespiti genellikle daha anlamlıdır. Dolayısıyla, sınıflandırma algoritmalarındaki dengesizlik probleminin çözümü büyük önem taşır. Gerçek dünya sınıflandırma problemlerindeki dengesizlik, azınlık sınıfına ait örneklerin doğru bir şekilde ayırt edilmesinin engellediği için zorluk teşkil eder. Bu durum, sahtekarlık tespiti, müşteri kaybı tahmini ve hastalık teşhisi gibi problemlerde özellikle dikkat çekicidir; çünkü azınlık sınıfı, doğru tespit edilmesi gereken kritik örnekleri temsil eder. Bu nedenle, makine öğreniminin bu gerçek dünya problemlerinde başarılı bir şekilde uygulanabilmesi için sınıflandırma algoritmalarındaki dengesizlik probleminin çözülmesi önemlidir. Dengesiz öğrenme problemiyle başa çıkmak için çeşitli yöntemler geliştirilmiştir ve bu yöntemler hem model düzeyinde hem de modelin öğrenme seti düzeyinde manipülasyonlar olarak ikiye ayrılabilir. Öğrenme setini manipüle etmek, öğrenme sürecinde nispeten dengeli bir veri seti oluşturmayı amaçlar. Bir çözüm önerisi olarak rastgele örnek azaltımı yöntemi, öğrenme setinden bazı çoğunluk sınıfı örneklerini çıkarmayı içerir. Ancak, bu yöntem çoğunluk sınıfıyla ilgili bilgi kaybına yol açabilir. Çoğunluk sınıfından örnekleri çıkarmanın yanı sıra, bir diğer strateji, azınlık sınıfından örnekleri artırmayı hedefler. Bu süreçte, azınlık sınıfı içerisinde rastgele örnekler alınarak, azınlık sınıfına ait örnek sayısının arttırılması sağlanır. Azınlık sınıfından örnekleme yapmanın temel zorluklarından biri, azınlık sınıfı örneklerinin temsil ettiği bilginin çeşitliliğini sağlamada zorluk yaşanmasıdır, bu da veri setine tekrarlayan bilgi ekleme sorununa yol açabilir. Bir başka değiş ile azınlık sınıfına ait rasgele seçilip veri setine eklenen örnekler halihazırda zaten verisetinde bulunan örnekler olduğu için veri setindeki azınlık sınıfına ait bilgi çeşitliliğini arttırmayacaktır. Bu sorunun üstesinden gelmek için, azınlık sınıfı için sentetik veri üretmeye odaklanan çözümler önerilmiştir. Dengesiz öğrenme problemine yönelik daha önce tanıtılan çözümlerden farklı olarak, biz eğitim seti karmaşıklık oranı ayarlamasını içeren yeni bir yaklaşım öneriyoruz. Önerdiğimiz bu yeni yöntem, eğitim seti içindeki karmaşıklık oranının ayarlanmasını optimize ederek geleneksel tekniklerden ayrılmaktadır. Sentetik veri eklemek yerine, yaklaşımımız eğitim setinin karmaşıklığını kademeli olarak arttırmaya odaklanmaktadır. Bu, çoğunluk sınıfından örneklerin azaltılması ile azınlık sınıfından örneklerin artırılması arasında dikkatli bir denge sağlamak suretiyle uygun bir eğitim seti karmaşıklık oranına ulaşmayı hedefler. Böylelikle, çoğunluk sınıfındaki bilgi kaybını hafifletirken, azınlık sınıfı örneklerinin çeşitliliği ve miktarının korunmasını hedeflemekteyiz, bu da dengesiz öğrenme probleminin üstesinden gelmek için ince bir bakış açısı sunar. Önerilen yöntemde, dengesiz veri setleri için eğitim setinin karmaşıklığını ayarlayarak sınıflandırma algoritmalarını daha güçlü hale getirecek bir çözüm geliştireceğiz. Eğitim setinin karmaşıklığı, çoğunluk sınıfındaki örneklerin sayısının azınlık sınıfındaki örneklerin sayısını ne kadar aştığını gösteren bir göstergedir. Eğitim setinin karmaşıklığını, dengesiz öğrenme probleminin etkili bir şekilde ele alınması için kritik bir hiperparametre olarak değerlendiriyoruz. Bu amacı gerçekleştirebilmek için, eğitim setinin karmaşıklığının hiperparametresini ayarlamak zorunlu hale gelmektedir. Bu süreçte, başlangıçta azınlık ve çoğunluk sınıfından eşit sayıda örnek seçilir. Daha sonra, çoğunluk sınıfından örnek sayısını kademeli olarak artırmak için yinelemeli bir yaklaşım kullanılır. Her yinelemede, temel olarak seçilen model, ortaya çıkan eğitim seti üzerinde eğitilir ve doğrulama setindeki performansı ölçülüp kaydedilir. Her yinelemeden sonra elde edilen performans metriklerini karşılaştırmak, en yüksek performansa sahip yinelemeye karşılık gelen optimal eğitim seti karmaşıklığını belirlememizi sağlar. Eğitim setindeki çoğunluk sınıfı ve azınlık sınıfının dengesini ayarlarken, çoğunluk sınıfının örnek sayısını dikkate alarak örnek seçimi yapılacaktır. Rastgele seçim yapmak yerine, K-Means kümeleme algoritmasını kullanarak çoğunluk sınıfından seçilen örneklerin temsil ediciliğini artırmayı hedefledik. Bu amacı gerçekleştirmek için, çoğunluk sınıfını K-Means algoritması kullanarak kümelere ayırdık. Örnek seçimi sürecinde, seçilen örneklerin orijinal verilerdeki oranı korumasını sağlayarak her kümenin içindeki örneklerin oranını dikkate aldık. Bu yaklaşım, çoğunluk sınıfının genel temsil ediciliğini iyileştirmeyi ve nihayetinde daha sağlam ve güvenilir bir örnekleme stratejisine katkıda bulunmayı amaçlamıştır. Önerilen yöntemimizde, eğitim setinin karmaşıklık oranını ayarlamanın yanı sıra, çoğunluk sınıfına uygulanan K-Means kümeleme yöntemindeki ideal küme sayısını belirlemek amacıyla 2 ayrı yöntemi karşılaştırdık. Birinci olarak, çoğunluk sınıfı için ideal küme sayısını belirlemek amacıyla yaygın olarak kullanılan elbow eğrisi yöntemini kullandık. Elbow yöntemine göre, farklı küme sayıları denenerek elde edilen kümeleme başarı metrikleri grafik üzerinde çizilir. Kümeleme başarı metriği ideal durumda küme sayısı arttıkça artmaktadır. Ancak küme sayısındaki her bir artış, kümeleme başarı metriğini aynı derecede arttırmayacaktır. Kümeleme başarı metriğinin en fazla arttığı küme sayısı artış noktasında dirseğe benzeyen bir şekil oluşur. Bu nokta elbow noktası olarak adlandırılır. Bu nokta ideal küme sayısını veren nokta olarak kullanılır. İkinci bir yaklaşım olarak, her küme sayısı için eğitim seti karmaşıklık yöntemi uygulandı ve doğrulama seti üzerindeki modelin performansı kaydedildi. Bu yöntem her küme sayısı için yinelemeli olarak uygulandı. Elde edilen sonuçlar daha sonra karşılaştırıldı ve çoğunluk sınıfı için küme sayısı ile buna karşılık gelen eğitim seti karmaşıklık oranı belirlendi. Dengesiz veri seti üzerinde oluşturulan bir modelin performansını değerlendirirken yalnızca doğruluk metriğini kullanmak yanıltıcı sonuçlar doğurabilir. Doğruluk metriği, basitçe modelin doğru tahmin ettiği örneklerin toplam örnek sayısına oranını ölçer. Ancak, dengesiz veri setlerinde bir sınıfın diğer sınıfa oranla sayıca çok fazla olması durumunda, modelin tahminlerinin büyük çoğunlukla bu baskın sınıfa yönelik olması, doğruluk metriğinin yüksek çıkmasına yol açar. Bu durum, modelin gerçek performansını yansıtmayabilir ve yanıltıcı olabilir. Örneğin, 100 adet örnek içeren bir veri setini ele alalım. Bu veri setinde 99 adet negatif örnek ve 1 adet pozitif örnek bulunduğunu varsayalım. Modelin tüm örnekleri negatif olarak tahmin ettiğini düşünelim. Bu durumda, doğruluk metriği kullanılarak yapılan değerlendirmede modelin doğruluğu %99 olarak hesaplanacaktır. Yüzeysel olarak oldukça yüksek görünen bu doğruluk değeri, gerçekte aldatıcıdır. Çünkü model, pozitif olan tek örneği doğru şekilde tahmin edememiştir. Bu tür bir değerlendirme, modelin pozitif sınıfı ayırt etme yeteneğini göz ardı eder ve modelin gerçek performansını yansıtmaz. Bu nedenle, dengesiz veri setleri ile çalışan modellerin performansını ölçerken doğruluk metriği yerine daha uygun ve kapsamlı metrikler kullanılmalıdır. Örneğin, ROC (Receiver Operating Characteristic) eğrisi ve bu eğrinin altında kalan alan (AUC - Area Under Curve) metriği, modelin pozitif ve negatif sınıfları ayırt etme yeteneğini daha iyi yansıtır. Ayrıca, precision (kesinlik), recall (duyarlılık) ve F1 skoru gibi metrikler, dengesiz veri setleri üzerinde modelin performansını değerlendirmek için daha uygun seçenekler sunar. Bu metrikler, modelin pozitif sınıfı ne kadar doğru tahmin ettiğini ve pozitif tahminlerin ne kadarının doğru olduğunu gösterir, bu da daha dengeli ve gerçekçi bir performans değerlendirmesi sağlar. Sonuç olarak, dengesiz veri setleri ile çalışırken model performansını yalnızca doğruluk metriği üzerinden değerlendirmek yeterli ve güvenilir bir yaklaşım değildir. Doğruluk metriği, yüzeysel bir başarı göstergesi olabilir ancak modelin pozitif sınıfları ayırt etme yeteneğini tam anlamıyla yansıtamaz. Bu yüzden, dengesiz veri setleri üzerinde çalışan modellerin performansını değerlendirmek için ROC eğrisi, AUC, precision, recall ve F1 skoru gibi daha kapsamlı ve uygun metrikler kullanılması gerekmektedir. Bu metrikler, modelin gerçek performansını daha doğru bir şekilde ortaya koyar ve modelin güçlü ve zayıf yönlerinin daha iyi anlaşılmasını sağlar. ROC (Receiver Operating Characteristic) performans metriği, dengesi veri setleri üzerinde koşulan sınıflandırma algoritmalarının performansını değerlendirmek için kullanılan bir metriktir. Bu metrik, bir modelin pozitif ve negatif sınıfları ayırt etme kabiliyetini ölçer. ROC eğrisi, farklı eşik değerlerinde modelin doğru pozitif oranı (True Positive Rate, TPR) ile yanlış pozitif oranı (False Positive Rate, FPR) arasındaki ilişkiyi göstermeyi hedefler. Doğru pozitif oranı, pozitif olarak tahmin edilen gerçek pozitiflerin oranıdır, yani modelin doğru bir şekilde pozitif sınıfı tahmin etme oranıdır. Yanlış pozitif oranı ise negatif olarak tahmin edilmesi gereken ancak model tarafından pozitif olarak tahmin edilen örneklerin oranıdır, yani modelin yanlış bir şekilde pozitif sınıfı tahmin etme oranıdır. ROC eğrisinin altında kalan alan, AUC (Area Under Curve) olarak adlandırılır ve modelin ayırt etme yeteneğinin genel bir ölçüsünü sunar. AUC değeri 0.5'e yaklaştıkça modelin rastgele yakın bir tahminde bulunduğu, bir değerine yaklaştıkça ise modelin mükemmel ayırt edici kabiliyete sahip olduğu anlamını taşır. Bu sebeple, ROC eğrisi ve AUC metriği, özellikle dengesiz veri setlerinde doğruluk gibi basit performans ölçütlerinin yanıltıcı olabileceği durumlarda, bir modelin genel performansını değerlendirmek için kritik öneme sahiptir. Önerilen modelimiz ile geleneksel SMOTE yöntemi arasındaki karşılaştırmalı analizde, ROC performans metriği değerlendirme kriteri olarak seçilmiştir. Sınıflandırma algoritmasının ayırt etme yeteneğini ölçen bu metrik, algoritmanın farklı sınıflar arasında etkili bir şekilde ayrım yapma kapasitesini değerlendirmede önemli bir rol oynamıştır. Önerdiğimiz modeli, geleneksel SMOTE, Adasyn-SMOTE ve ağırlıklandırılmış rastgele ormanlar yöntemleriyle kapsamlı bir şekilde karşılaştırdık. Rastgeleliğin etkilerini en aza indirmek amacıyla, algoritmaları farklı başlangıç noktaları kullanarak 10 kez çalıştırdık. Her çalıştırma sonucunda elde edilen performans metriklerini ortalayarak, modellerin genel performansını daha güvenilir bir şekilde değerlendirdik. Bu karşılaştırmalı analiz sonucunda, önerdiğimiz metodun diğer çözümlere kıyasla üstün bir performans sergilediğini tespit ettik. Özellikle, ROC performans metriğinde elde edilen iyileşmeler dikkat çekici boyuttaydı. Önerdiğimiz metodun ROC eğrisinin altında kalan alan (AUC) değerlerinde belirgin bir artış sağladığı gözlemlendi. Bu bulgu, modelimizin pozitif ve negatif sınıfları ayırt etme yeteneğinin diğer yöntemlere kıyasla daha güçlü olduğunu göstermektedir. Önerdiğimiz metodun doğrulayıcı performansını daha kapsamlı bir şekilde değerlendirmek amacıyla, confusion matrisini de ayrıntılı bir şekilde inceledik. Analizlerimiz, özellikle doğru pozitif (True Positive) oranında anlamlı bir artış olduğunu ortaya koydu. Bu, modelimizin pozitif sınıflandırmaları daha doğru bir şekilde tahmin edebildiğini açıkça göstermektedir. Bu bulgular, önerdiğimiz metodun yalnızca genel performansını değil, aynı zamanda spesifik sınıflandırma görevlerindeki başarısını da artırdığını ortaya koymaktadır. Modelimizin, özellikle pozitif sınıflandırma görevlerindeki başarısı, potansiyel uygulama alanlarını genişletmektedir. Sonuç olarak, önerdiğimiz yeni model, dengesiz veri setleri üzerinde diğer yaygın olarak kullanılan yöntemlere kıyasla daha etkili ve güvenilir bir çözüm sunmaktadır. Bu durum, modelimizin geniş bir uygulama yelpazesinde kullanılabilirliğini artırmakta ve özellikle dengesiz veri setlerinin sıkça karşılaşıldığı alanlarda önemli bir avantaj sağlamaktadır. Bu bağlamda, önerdiğimiz metodun, çeşitli uygulama alanlarında daha yaygın olarak benimsenebileceğini ve karmaşık sınıflandırma problemlerinde daha başarılı sonuçlar elde edilmesini sağlayabileceğini düşünmekteyiz. Bu çalışma, önerilen metodun üstün performansını ve geniş potansiyelini vurgulamakta, gelecekteki araştırmalar için de önemli bir temel oluşturmaktadır.

Özet (Çeviri)

Machine learning algorithms that address most classification problems are known to yield good results by assuming a balanced training set. This is because machine learning algorithms, during the training process, attempt to minimize a specific cost objective function. When undertaking this minimization process, if one class is predominant, it will tend to dominate the minimization process, essentially producing predictions biased toward the dominant class. In other words, generating predictions predominantly for the prevalent class will fulfill the minimization objective. This presents a problematic situation, as many real-world classification problems exhibit imbalanced datasets. Real-life scenarios such as fraud detection, churn prediction, and disease diagnosis often involve imbalanced datasets. To address this issue, the desired outcome in the development of classification solutions is the accurate identification of examples belonging to the minority class. In the context of these problems, the detection of instances from the minority class is typically more meaningful. Hence, the resolution of the imbalance problem in classification algorithms holds significant importance. Imbalance in real-world classification problems poses a challenge, as it hinders the proper recognition of instances from the minority class. This is particularly noteworthy in scenarios like fraud detection, churn prediction, and disease diagnosis, where the minority class represents critical instances requiring accurate identification. Therefore, addressing the imbalance problem in classification algorithms becomes crucial for the successful application of machine learning in these real-life scenarios. Various methods have been developed to address the imbalance learning problem, and these methods can manifest as manipulations at both the model level and the level of the model's learning set. Manipulating the learning set aims to create a relatively balanced dataset during the learning process. One approach involves removing some examples belonging to the majority class from the learning set to achieve this balance. However, this method may lead to information loss related to the majority class. In addition to discarding examples from the majority class, another strategy involves augmenting examples from the minority class. During this process, sampling can be performed for the minority class. A fundamental challenge in sampling from the minority class lies in the difficulty of ensuring diversity in the information represented by minority class examples, leading to the problem of incorporating repetitive information into the dataset. To address this issue, solutions have been proposed that focus on generating synthetic data for the minority class. Unlike the previously introduced solutions for the imbalance learning problem, we propose a novel approach: training set complexity ratio tuning. This proposed method diverges from traditional techniques by emphasizing the adjustment of the complexity ratio within the training set. Instead of introducing synthetic data, our approach centers around iteratively tuning the complexity of the training set. This involves a careful balance between reducing examples from the majority class and augmenting examples from the minority class to achieve a favorable training set complexity ratio. By doing so, we aim to mitigate information loss in the majority class while enhancing the diversity and quantity of minority class examples, providing a nuanced perspective in addressing the challenges posed by the imbalance learning problem. In proposed method, we will develop a solution to make classification algorithms stronger by tuning the complexity of the train set for imbalanced data sets. The complexity of the training set refers to the indicator of how many times the number of examples in the majority classs exceds the those in the majority class. We consider the complexity of the training set as a hyperparameter, crutial for effectively addressing imbalance learning problem. To achieve this, tunning the hyperparameter of the training set's complexity becomes imperative. During this process, an equal number of examples from the minority and the majority class are initially selected. Subsequently, an iterative approach is employed to incrementally increase the number of examples frım the majority class. At each iteration base model is trained on the resulting training set, and its performance on the validation set is measured and recorded. Comparing the performance metrics obtained after each iteration allows us to determined the optimal complexity of the training set, which corresponds to the iteration with highest performance. While adjusting the balance of majority class and minority class in the training set, sample selection will be made by considering the number of sample of the majority class. We aimed to enhance the representativeness of the selected samples from the majority class by employing the K-Means algorithms, instead of opting for random selection. To achieve this, we partitioned the majorit class into clusters using the K-Means algorithm. During the sample selection process, we considered the propotion of instances within each cluster, ensuring that the selected samples maintained the same ratio as the original data. This approach was designed to improve the overall representativeness of the majority class, ultimately contributing to a more robust and reliable sampling strategy. In our proposed method, in addition to tuning the complexity ratio of the training set, we compared methods for determining the ideal number of clusters for the KMeans clustering applied to the majority class. Initially, we employed the commonly used elbow curve method to identify the number of clusters for the majority class. As a second approach, for each cluster count, the train set complexity method was executed to find the optimal training set complexity ratio, and the performance of the resulting model on the validation set was recorded. This method was iteratively applied for each cluster count. The obtained results were then compared, and the number of clusters for the majority class and the corresponding training set complexity ratio were determined. Using the accuracy metric would be misleading when measuring the performance of the model built on the imbalance data set (Chowdhury et al., 2023). In the comparative analysis between our proposed model and the conventional SMOTE method, the ROC performance metric was chosen as the evaluation criterion. This metric, renowned for quantifying the discriminative prowess of a classification algorithm, proved instrumental in assessing the algorithm's capacity to effectively differentiate between distinct classes. Upon scrutinizing the results of the comparison, it is evident that the methodology we proposed has yielded more favorable outcomes when juxtaposed against the conventional SMOTE approach. The ROC performance metric, being a comprehensive indicator of the algorithm's ability to discriminate between positive and negative instances, underscores the enhanced discriminative power exhibited by our proposed model. This comparative evaluation provides empirical evidence supporting the superior efficacy of our proposed methodology over the traditional SMOTE method, underscoring its potential to enhance the overall performance and robustness of classification algorithms, particularly in the context of imbalanced datasets. In addition, to comprehensively assess the validation performance of the proposed method, we conducted a detailed examination of the confusion matrix. This analysis revealed a significant increase in the True Positive (TP) rate, which indicates that our model exhibits a superior ability to accurately predict positive classifications. This enhancement in the True Positive rate is particularly noteworthy, as it underscores the model's proficiency in identifying positive instances, thereby reducing false negatives and improving overall classification accuracy. These findings are critical as they demonstrate that the proposed method not only enhances overall model performance but also significantly improves its efficacy in specific classification tasks. The ability to accurately classify positive instances is often crucial in many real-world applications, such as medical diagnosis, fraud detection, and various safety-critical systems. Moreover, the results highlight the robustness and reliability of our model when applied to imbalanced datasets, a common challenge in many practical scenarios. Traditional methods often struggle with such datasets, leading to suboptimal performance. However, the proposed method stands out by offering a more effective and reliable solution. In summary, our newly proposed model presents a substantial advancement over other widely used techniques, providing a more effective and dependable approach to handling imbalanced data. This improvement not only demonstrates the model's potential for broader applicability but also its robustness in addressing complex and demanding classification problems. The implications of these findings are significant, suggesting that the proposed method could be widely adopted across various domains requiring precise and reliable classification performance.

Benzer Tezler

  1. Software defect prediction with a personalization focus and challenges during deployment

    Kişiselleştirme odaklı yazılım hata tahmini ve entegrasyon zorlukları

    BEYZA EKEN

    Doktora

    İngilizce

    İngilizce

    2022

    Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrolİstanbul Teknik Üniversitesi

    Bilgisayar Mühendisliği Ana Bilim Dalı

    DR. ÖĞR. ÜYESİ AYŞE TOSUN KÜHN

  2. Hierarchical reinforcement learning in complex wargame environments

    Kompleks savaş oyunu ortamlarında hiyerarşik pekiştirmeli öğrenme

    KUBİLAY KAĞAN KÖMÜRCÜ

    Yüksek Lisans

    İngilizce

    İngilizce

    2024

    Astronomi ve Uzay Bilimleriİstanbul Teknik Üniversitesi

    Uçak ve Uzay Mühendisliği Ana Bilim Dalı

    DOÇ. DR. NAZIM KEMAL ÜRE

  3. Derin öğrenme ağları kullanılarak doğal ortamda hastalıklı domateslerin belirlenmesi

    Detection of diseased tomatoes using deep learning networks in natural field

    KÖKSAL KAPUCUOĞLU

    Yüksek Lisans

    Türkçe

    Türkçe

    2022

    Elektrik ve Elektronik Mühendisliğiİstanbul Teknik Üniversitesi

    Elektronik ve Haberleşme Mühendisliği Ana Bilim Dalı

    DOÇ. DR. MÜRVET KIRCI

  4. Supervised and unsupervised machine learning techniques for text document categorization

    Belge sınıflandırma için gözetimli ve gözetimsiz öğrenme algoritmaları

    ARZUCAN ÖZGÜR

    Yüksek Lisans

    İngilizce

    İngilizce

    2004

    Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve KontrolBoğaziçi Üniversitesi

    Bilgisayar Mühendisliği Ana Bilim Dalı

    PROF. DR. ETHEM ALPAYDIN

  5. Ülke kredi derecelendirmesine ilişkin farklı yöntem denemeleri

    Different method trials on sovereign credit rating

    NİSA ÖZGE ÖNAL

    Yüksek Lisans

    Türkçe

    Türkçe

    2018

    Bilim ve Teknolojiİstanbul Teknik Üniversitesi

    Bilişim Uygulamaları Ana Bilim Dalı

    PROF. DR. ERTUĞRUL KARAÇUHA