Deep learning-based building segmentation using high-resolution aerial images
Yüksek çözünürlüklü hava görüntüleri kullanarak derin öğrenme temelli bina bölütlemesi
- Tez No: 768837
- Danışmanlar: PROF. DR. DURSUN ZAFER ŞEKER
- Tez Türü: Doktora
- Konular: Jeodezi ve Fotogrametri, Geodesy and Photogrammetry
- Anahtar Kelimeler: Belirtilmemiş.
- Yıl: 2022
- Dil: İngilizce
- Üniversite: İstanbul Teknik Üniversitesi
- Enstitü: Lisansüstü Eğitim Enstitüsü
- Ana Bilim Dalı: Geomatik Mühendisliği Ana Bilim Dalı
- Bilim Dalı: Geomatik Mühendisliği Bilim Dalı
- Sayfa Sayısı: 163
Özet
Uydu ve uzaktan algılama teknolojilerindeki ilerlemeler ve kentsel alanlardaki gelişmelerle birlikte, yüksek çözünürlüklü hava görüntülerinden bina çıkarma ve bina haritaları oluşturma, bilgisayarlı görü ve uzaktan algılama toplulukları arasında önemli ve popüler bir araştırma konusu haline gelmiştir. Teknolojik gelişmelerle birlikte çok sayıda yüksek çözünürlüklü görüntü giderek daha erişilebilir ve kullanışlı veri kaynakları haline gelmiştir. Aynı zamanda, geniş alanları görüntüleme yetenekleri nedeniyle, bu hava görüntüleri, doğru ve hassas bina bölütlemesi ve bina haritaları oluşturmak için çok faydalı olmaktadırlar. Kentsel veritabanı için en önemli ve anahtar özelliklerden biri olan binalar, insan yaşamının temel yapı taşlarındandır. Bu önemlerinden dolayı yapı haritaları, kaçak yapı tespiti, değişim tespiti, nüfus tahmini, arazi kullanımı/arazi örtüsü analizi, afet yönetimi, topografik ve kadastro harita üretimi gibi yerbilimleri ile ilgili çeşitli uygulamalar ve çalışma alanları için büyük önem arz etmektedir. Bununla birlikte, yüksek çözünürlüklü hava görüntülerinden doğru ve güvenilir bina haritaları elde etmek, karmaşık arka planlar, binaların boyut, şekil ve renklerindeki farklılıklar, gürültülü veriler, çatı tipi farklılıkları ve diğer birçok topolojik zorluklar gibi çeşitli nedenlerden dolayı hala zorlu bir iştir. Bu nedenle, yüksek çözünürlüklü hava görüntülerinden bina bölütlemenin ve çıkarmanın verimliliğini ve doğruluğunu artırmak, bu alandaki araştırmacılar arasında hala bir odak noktası ve ilgi çekici bir konudur. Geçtiğimiz yıllar içinde, hava görüntülerinden otomatik bina bölütlemesi gerçekleştirmek etmek için araştırmacılar tarafından çeşitli yöntemler kullanılmıştır. Bu çalışmalarda nesne tabanlı, gölge tabanlı veya kenar tabanlı yöntemler gibi geleneksel görüntü işleme yöntemleri kullanılmaktaydı. Renk, spektrum, uzunluk, doku, kenar, gölge ve yükseklik gibi bu yöntemlerle kullanılan düşük seviyeli özellikler ve metrikler, atmosferik durum, ışık, ölçek ve sensör kalitesi gibi farklı koşullar altında değişebilmektedir. Bu geleneksel yöntemler genellikle manuel olarak çıkarılan öznitelikleri alır ve daha sonra bina bölütlemesi elde etmek için bir sınıflandırıcı veya geleneksel makine öğrenmesi tekniklerini kullanırlar. Ancak özelliklerin manuel olarak çıkarılması maliyetli, zaman alıcı, yoğun emek isteyen ve yüksek deneyim ve ön bilgi gerektiren bir işlemdir. Zaman içinde bu yöntemler bir miktar ilerleme kaydetmiş olsa da, düşük doğruluk, düşük genelleme yeteneği ve karmaşık işlemler gibi bazı ciddi eksiklikleri vardır. Teknolojik gelişmeler ve büyük veri setlerinin mevcudiyeti ile birlikte, derin öğrenme tabanlı yaklaşımlar, özellikle Evrişimli Sinir Ağları (ESA), çok popüler hale gelmiş, topluluklar içindeki araştırmacılardan çok fazla ilgi görmüş ve geleneksel yöntemleri doğruluk açısından geride bırakmıştır. ESA'lar, doğrudan giriş verilerinden ilgili özellikleri çıkarma ve tam bağlantılı katmanları kullanarak tahminler yapma yeteneğine sahiptir. Yıllar içinde LeNet, AlexNet, VGGNet, GoogleNet ve ResNet gibi birçok ESA mimarisi kullanılmıştır. Bununla birlikte, ESA'lar bölgesel bölünmeler gerçekleştirir ve hesaplama açısından pahalı tam bağlantılı katmanlar kullanır. Bu yama tabanlı ESA'lar, bina bölütlemesi çalışmalarında olağanüstü bir başarı elde etmiştirler, ancak tahminler yapmak için hedeflerin etrafındaki küçük yamalara güvenmeleri ve aralarındaki ilişkileri görmezden gelmeleri nedeniyle, bina özelliklerinin doğru bütünlüğünü ve mekansal sürekliliğini sağlayamamıştırlar. ESA'ların performansını iyileştirmek ve bu problemlerin üstesinden gelmek için Long ve ark. Tam Evrişimli Ağlar'ı (TEA) önermişlerdir. ESA'lardaki tamamen bağlı katmanlar yerine, TEA, tahmin doğruluğunu büyük ölçüde artıran evrişim katmanlarına sahiptir. TEA, özellik haritalarının çıktısını girdi görüntülerinin boyutunda verir ve kodlayıcı-kod çözücü yapıları aracılığıyla piksel tabanlı bölütleme gerçekleştirir. Kodlayıcı yolunda, alt örnekleme yoluyla küçük boyutlu özellik haritaları oluşturulur ve kod çözücü yolunda, üst örnekleme yoluyla bu özellik haritaları kullanılarak nihai bölütleme haritaları oluşturulur. Ancak, TEA!nın yalnızca bir üst örnekleme katmanına sahip olması nedeniyle, bilgilerin çoğu kod çözücü yolunda kaybolur. Elde ettikleri başarılara rağmen, TEA'nın hesaplama karmaşıklığı ve çok sayıda parametreye sahip olması gibi bazı sınırlamaları da vardır. Bu eksikliklerin üstesinden gelmek için yıllar içinde SegNet, U-Net ve Feature Pyramid Networks (FPN) gibi çeşitli varyantlar önerilmiştir. U-Net mimarisi, önceki katmanlardan sonraki katmanlara semantik bilgileri birleştirerek görüntü bölütleme doğruluğunu geliştirmek için atlama bağlantıları önermiştir. SegNet ise, parametre sayısını azaltmak için havuzlama katmanına sahip bir evrişimli kodlayıcı ve transpoze edilmiş kıvrımlara sahip simetrik bir kod çözücü önermiştir. ESA tabanlı bu yaklaşımlar, görüntü bölütleme görevlerinde başarılı sonuçlar elde etmişlerdir, ancak bazı darboğazları da mevcuttur. Örneğin, sabit boyutlu evrişimlerin kullanımı, yerel bir alıcı alanla sonuçlanır. Tasarımları nedeniyle yerel bağlamı çıkarmada başarılıdırlar, ancak küresel bağlamı çıkarma yetenekleri düşüktür. Bu eksikliklerin üstesinden gelmek için dikkat mekanizması, artık bağlantılar ve farklı derinliklerde mimariler tasarlamak gibi bazı yaklaşımlar önerilmiş ve uygulanmıştır. Transformer yaklaşımı ilk olarak doğal dil işleme (NLP) çalışmalarında kullanılmış ve daha sonra bilgisayarlı görü görevlerine uygulanmıştır. 2020 yılında bilgisayarlı görü çalışmalarında kullanılmak üzere Vision Transformer (ViT) yaklaşımı önerilmiş ve ImageNet veri seti üzerinde başarılı sonuçlar elde edilmiştir. CNN'ler yerel öznitelikleri belirlemede başarılıdır, ancak yapıları gereği küresel öznitelikleri belirlemede yetersizdirler. Transformer yaklaşımları, CNN'lerin bu eksikliklerini dikkat mekanizmalarının kullanımıyla telafi edebilmektedirler. ViT tabanlı yöntemler ile, CNN'lerin aksine, küresel bilgi çıkarılabilir, ancak uzamsal olarak ayrıntılı bağlam göz ardı edilir. Ayrıca, Transformer yaklaşımları büyük görüntülerle çalışırken vektör işlemlerinde tüm pikselleri kullandıklarından dolayı büyük miktarda bellek gerektirirler ve hesaplama açısından verimsizdirler. Bu tezin temel amacı, yüksek çözünürlüklü hava görüntülerinden bina bölütlemesi gerçekleştirmek için ESA ve Transformer tabanlı farklı yaklaşımların incelenmesi, değerlendirilmesi, karşılaştırmaların gerçekleştirilmesi ve bahsedilen eksiklikleri gidermek amacıyla modernize edilmiş bir CNN yaklaşımı önermektir. İlk makalede, yüksek çözünürlüklü hava görüntülerinden bina bölütlemesi gerçekleştirmek için U-Net'in daha sığ ve daha derin versiyonları olan dört U-Net tabanlı mimari oluşturulmuş ve bunlar birbirleriyle ve orijinal U-Net ile karşılaştırılmıştır. Modeller, Inria Aerial Image Labelling Dataset ve Massachusetts Buildings Dataset kullanılarak hazırlanan veri setleri üzerinde eğitilmiş ve test edilmiştir. INRIA test setinde, Deeper 1 U-Net mimarisi 0,79 ile en yüksek F1 puanını ve 0,65 ile IoU puanını sağlamış, bunu Deeper 2 ve U-Net mimarileri izlemiştir. Massachusetts test setinde ise U-Net mimarisi 0,79 F1 puanı ve 0,66 IoU puanı elde etmiş, bunu Deeper 2 ve Shallower 1 mimarileri izlemiştir. Deeper 1 ve Deeper 2 mimarileri ile elde edilen başarılı sonuçlar, daha derin mimarilerin elde çok fazla sayıda veri olmasa bile daha iyi sonuçlar verebileceğini göstermektedir. Ek olarak, Shallower 1 mimarisi, daha az hesaplama maliyeti ile derin mimarilerin çok gerisinde olmayan bir performansa sahip görünmektedir ve bu, coğrafi uygulamalar için kullanışlılığını göstermektedir. İkinci makalede, bina bölütlemesi için, dört farklı omurga (ResNet, ResNeXt, SE-ResNeXt ve DenseNet) kullanan U-Net ve FPN mimarileri ile Attention Residual U-Net yaklaşımı oluşturulmuş ve bunlar arasında karşılaştırmalar yapılmıştır. Modelleri eğitmek ve test etmek için halka açık Inria Aerial Image Labelling Dataset ve Massachusetts Buildings Dataset kullanılmıştır. Attention Residual U-Net modeli, Inria test setinde 0,8154 ile en yüksek F1 puanına, 0,7102 ile en yüksek IoU puanına ve %94,51 ile en yüksek test doğruluğuna sahiptir. Massachusetts test setinde ise, FPN Dense-Net-121 modeli 0,7565 ile en yüksek F1 puanına ve 0,6188 ile en yüksek IoU puanına sahipken, Attention Residual U-Net modeli %92,43 ile en yüksek test doğruluğuna sahiptir. Sonuçlar incelendiğinde, küçük boyutlu veri setleri ile çalışırken DenseNet omurgasına sahip FPN'nin daha iyi bir seçim olabileceği gözlemlenmiştir. Öte yandan, Attention Residual U-Net yaklaşımının, yeterince büyük bir veri seti sağlandığında daha yüksek başarı elde ettiği gözlemlenmiştir. Üçüncü makalede, ESA tabanlı toplam on iki model oluşturulmuş, değerlendirilmiş ve aralarında karşılaştırmalar yapılmıştır. EfficientNet-B5 omurgasını kullanan U-Net, FPN ve LinkNet mimarileri, orijinal U-Net, SegNet ve FCN ile altı farklı Residual U-Net yaklaşımını kullanan U-Net mimarileri, yüksek çözünürlüklü hava görüntülerinden bina bölütlemesi oluşturmak için kullanılmıştır. Modelleri eğitmek için Inria Aerial Image Labelling Dataset ve eğitilmiş modelleri değerlendirmek için ise üç farklı veri seti (Inria Aerial Image Labelling Dataset, Massachusetts Buildings Dataset ve Syedra Archaeological Site Dataset) kullanılmıştır. Inria test setinde Residual-2 U-Net, sırasıyla 0,824 ve 0,722 ile en yüksek F1 ve IoU puanlarına sahiptir. Syedra test setinde, LinkNet-EfficientNet-B5, 0,336 ve 0,246 F1 ve IoU puanlarına sahiptir. Residual-4 U-Net, Massachusetts test setinde 0,394 ve 0,259 F1 ve IoU puanlarına sahiptir. Sonuçlar değerlendirildiğinde, artık bağlantı kullanan modellerin geleneksel evrişim yapılarını kullanan modellere göre daha başarılı olduğu görülmüştür. Ayrıca, LinkNet mimarisinin diğer iki veri setinden daha farklı detay özelliklerine sahip olan Syedra test setinde iyi sonuçlar verdiği ve arkeolojik alanları içerebilecek gelecek çalışmalar için iyi bir seçenek olabileceği gözlemlenmiştir. Dördüncü makalede, toplam on adet CNN ve Transformer modeli oluşturulmuş ve yüksek çözünürlüklü uydu görüntülerinden bina bölütlemesi gerçekleştirilmiştir. Önerilen Residual-Inception U-Net (RIU-Net), U-Net, Residual U-Net ve Attention Residual U-Net modellerine ek olarak, dört CNN mimarisinin (Inception, Inception-ResNet, Xception ve MobileNet) kodlayıcı olarak uygulandığı U-Net tabanlı modeller de çalışma kapsamında kullanılmıştır. Son olarak, Transformer tabanlı iki yaklaşım da (Trans U-Net ve Swin U-Net) çalışmada kullanılmış ve tüm yaklaşımlar arasında karşılaştırmalar yapılmıştır. Modellerin eğitimi ve değerlendirilmesi için Massachusetts Buildings Dataset ve Inria Aerial Image Labelling Dataset kullanılmıştır. Inria veri setinde, RIU-Net sırasıyla 0,6736, 0,7868 ve %92,23 ile en yüksek IoU puanına, F1 puanına ve test doğruluğuna ulaşmıştır. Massachusetts Small veri setinde, Attention Residual U-Net 0,6218 ve 0,7606 ile en yüksek IoU ve F1 puanlarına ve Trans U-Net %94,26 ile en yüksek test doğruluğuna ulaşmıştır. Massachusetts Büyük veri setinde ise, Residual U-Net 0,6165 ve 0,7565 ile en yüksek IoU ve F1 puanlarını elde etmiş, Attention Residual U-Net ise %93,81 ile en yüksek test doğruluğuna ulaşmıştır. Sonuçlar, RIU-Net yaklaşımının diğer modellere kıyasla Inria veri setinde önemli ölçüde daha başarılı olduğunu göstermiştir. Massachusetts veri setlerinde ise, Residual U-Net, Attention Residual U-Net ve Trans U-Net yaklaşımları daha başarılı sonuçlar vermiştir.
Özet (Çeviri)
With the advancements in satellite and remote sensing technologies, and the developments in urban areas, building segmentation and extraction from high-resolution aerial images and generating building maps have become important and popular research topics. With technological developments, a large number of high-resolution images have become increasingly more accessible and convenient data sources. At the same time, due to their ability of imaging over large areas, these aerial images can be very useful for accurate building segmentation and generating building maps. As one of the most important and key features of the urban database, buildings are the building blocks for human livelihood. Due to this importance, building maps have significant role for various geoscience-related applications such as illegal building detection, change detection, population estimation, land use/land cover analysis, disaster management, and topographic and cadastral map production. Nonetheless, obtaining accurate and reliable building maps from high-resolution aerial images is still a challenging task due to various reasons such as complex backgrounds, differences in building size, shape, and colors, noisy data, roof type diversity, and many other topological difficulties. Therefore, improving the efficiency and accuracy of building segmentation and extraction from high-resolution aerial images is still a focus and a hot topic among researchers in the field. Over the past years, various methods have been used to achieve automatic building segmentation from aerial images. In earlier studies, traditional image processing methods such as object-based, shadow-based, or edge-based methods were used. The low-level features and metrics that are used with these methods such as color, spectrum, length, texture, edge, shadow, and height could vary under different conditions like atmospheric state, light, scale, and sensor quality. These methods generally take manually extracted features and apply classifiers or conventional machine learning techniques to achieve building segmentation. However, manually extracting these features is costly, time-consuming, labor intensive, and requires high experience and prior knowledge. Although over time these methods have made some progress, they have some serious shortcomings such as low accuracy, low generalization ability, and complex processing. With the technological developments and availability of large datasets, deep learning-based approaches, especially Convolutional Neural Networks (CNN), have gained a lot of attention from researchers and surpass conventional methods in terms of accuracy and efficiency. CNNs have the ability to extract relevant features directly from the input data and make predictions using fully connected layers. Many CNN architectures such as LeNet, AlexNet, VGGNet, GoogleNet, and ResNet have been used over the years. However, CNNs perform regional divisions and use computationally expensive fully connected layers. These patch-based CNNs have achieved exceptional success, but due to their reliance on small patches around the targets to perform predictions and ignoring the relations between them, they are unable to provide accurate integrity and spatial continuity of building features. To improve the performance and overcome these problems, Long et al. proposed Fully Convolutional Networks (FCN). Instead of fully connected layers in CNNs, FCNs have convolution layers that improve the prediction accuracy greatly. FCNs output the feature maps at the size of the input images and perform pixel-based segmentation through their encoder-decoder structure. However, much of the information is lost in the decoder path, due to the FCNs having just one upsampling layer. Despite their success, FCNs also have some limitations, such as computational complexity and a large number of parameters. To overcome these shortcomings, various variants have been proposed over the years such as SegNet, U-Net, and Feature Pyramid Networks (FPN). These CNN-based approaches have achieved successful results on image segmentation tasks, but they also have some bottlenecks. For example, the usage of fixed-size convolutions results a local receptive field. Due to their designs, they are successful at extracting local context but have a low ability to extract global context. To overcome these shortcomings, some approaches have been proposed and implemented. Such as attention mechanism, residual connections, and designing architecture in different depths. The Transformer was first used in natural language processing (NLP), and later on, implemented to computer vision tasks. In 2020, the Vision Transformer (ViT) approach was proposed to be used in computer vision studies and obtained successful results on the ImageNet dataset. CNNs are successful in identifying local features, but they are insufficient in identifying global features due to their structure. Transformers can compensate for these shortcomings with the use of attention mechanisms. In ViT-based methods, global information can be extracted but spatially detailed context is ignored. In addition, Transformers use all the pixels in vector operations when working with large images, and therefore require large amounts of memory and are computationally inefficient. The main objective of this thesis is to investigate, evaluate, and realize comparisons of different CNN-based and Transformer-based approaches for building segmentation from high-resolution aerial images, and propose a modernized CNN approach to deal with the mentioned shortcomings. This thesis is composed of four papers dealing with these objectives. In the first paper, four U-Net-based architectures, which are shallower and deeper versions of the U-Net, have been generated to perform building segmentation from high-resolution aerial images and they were compared with each other and the original U-Net. The models were trained and tested on datasets prepared using the Inria Aerial Image Labeling Dataset and the Massachusetts Buildings Dataset. On the INRIA test set, Deeper 1 U-Net architecture provided the highest F1 score with 0.79 and IoU score with 0.65, followed by Deeper 2 and U-Net architectures. On the Massachusetts test set, U-Net architecture provided 0.79 F1 score and 0.66 IoU score, followed by Deeper 2 and Shallower 1. Successful results were obtained with Deeper 1 and Deeper 2 architectures show that deeper architectures can provide better results even if there is not too much data. Additionally, Shallower 1 architecture appears to have a performance not far behind deep architectures, with less computational cost, and this shows usefulness for geographic applications. In the second paper, U-Net and FPN architectures utilizing four different backbones (ResNet, ResNeXt, SE-ResNeXt, and DenseNet) and an Attention Residual U-Net approach were generated and comparisons between them were realized. Publicly available Inria Aerial Image Labeling Dataset and Massachusetts Buildings Dataset were used to train and test the models. Attention Residual U-Net model has the highest F1 score with 0.8154, IoU score with 0.7102, and test accuracy with 94.51% on the Inria test set. On the Massachusetts test set, FPN Dense-Net-121 model has the highest F1 score with 0.7565 and IoU score with 0.6188, and the Attention Residual U-Net model has the highest test accuracy with 92.43%. It has been observed that FPN with DenseNet backbone can be a better choice when working with small-size datasets. On the other hand, the Attention Residual U-Net approach achieved higher success when a sufficiently large dataset is provided. In the third paper, a total of twelve CNN-based models (U-Net, FPN, and LinkNet architectures utilizing EfficientNet-B5 backbone, original U-Net, SegNet, FCN, and six different Residual U-Net approaches) were generated, evaluated and comparisons between them were realized. Inria Aerial Image Labeling Dataset was used to train models, and three datasets (Inria Aerial Image Labeling Dataset, Massachusetts Buildings Dataset, and Syedra Archaeological Site Dataset) were used to evaluate trained models. On the Inria test set, Residual-2 U-Net has the highest F1 and IoU scores with 0.824 and 0.722, respectively. On the Syedra test set, LinkNet-EfficientNet-B5 has F1 and IoU scores of 0.336 and 0.246. On the Massachusetts test set, Residual-4 U-Net has F1 and IoU scores of 0.394 and 0.259. When the results were evaluated, it has been observed that the models using residual connections are more successful than the models using conventional convolution structures. It has also been observed that the LinkNet architecture gave good results on the Syedra test set with different characteristics than the other two datasets, and could be a good option for future studies involving archaeological sites. In the fourth paper, a total of ten CNN and Transformer models (the proposed Residual-Inception U-Net (RIU-Net), U-Net, Residual U-Net, Attention Residual U-Net, U-Net-based models implementing Inception, Inception-ResNet, Xception, and MobileNet as backbones, Trans U-Net, and Swin U-Net) were generated, and building segmentation from high-resolution satellite images was carried out. Massachusetts Buildings Dataset and Inria Aerial Image Labeling Dataset were used for training and evaluation of the models. On the Inria dataset, RIU-Net achieved the highest IoU score, F1 score, and test accuracy, with 0.6736, 0.7868, and 92.23%, respectively. On the Massachusetts Small dataset, Attention Residual U-Net achieved the highest IoU and F1 scores, with 0.6218 and 0.7606, and Trans U-Net reached the highest test accuracy, with 94.26%. On the Massachusetts Large dataset, Residual U-Net accomplished the highest IoU and F1 scores, with 0.6165 and 0.7565, and Attention Residual U-Net attained the highest test accuracy, with 93.81%. The results showed that the RIU-Net approach was significantly successful in the Inria dataset compared to other models. On the Massachusetts datasets, Residual U-Net, Attention Residual U-Net, and Trans U-Net gave more successful results.
Benzer Tezler
- Deep learning based road segmentation from multi-source and multi-scale data
Çok kaynaklı ve çok ölçekli veriyle derin öğrenme tabanlı yol bölütlenmesi
OZAN ÖZTÜRK
Doktora
İngilizce
2023
Jeodezi ve Fotogrametriİstanbul Teknik ÜniversitesiGeomatik Mühendisliği Ana Bilim Dalı
PROF. DR. DURSUN ZAFER ŞEKER
- Satellite images super resolution using generative adversarial networks
Uydu görüntülerinde çekişmeli üretici ağ kullanarak süper çözünürlük
MARYAM SERDAR
Yüksek Lisans
İngilizce
2022
Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrolİstanbul Teknik Üniversitesiİletişim Sistemleri Ana Bilim Dalı
PROF. DR. AHMET HAMDİ KAYRAN
- Çok yüksek çözünürlüklü uydu görüntülerinden grafik tabanlı bilgi çıkarımı
Graph-based infortmation extraction from very high resolution satellite images
NURETTİN SİNANOĞLU
Yüksek Lisans
Türkçe
2024
Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve Kontrolİstanbul Teknik ÜniversitesiUydu Haberleşmesi ve Uzaktan Algılama Ana Bilim Dalı
PROF. DR. ELİF SERTEL
- Derin öğrenme yöntemleri ve uydu görüntü verileri kullanılarak deprem sonrası ağır hasarlı alanların tespiti: Kahramanmaraş örneği
Using deep learning methods and satellite imagery identifying heavily damaged areas after an earthquake: The case of Kahramanmaraş
EMİNE SARIALİOĞLU
Yüksek Lisans
Türkçe
2024
Jeodezi ve Fotogrametriİstanbul Teknik ÜniversitesiGeomatik Mühendisliği Ana Bilim Dalı
PROF. DR. ŞİNASİ KAYA
- Uzaktan algılama ve derin öğrenme yöntemleri ile İstanbul'un yerel iklim alanları ve yer yüzeyi sıcaklığı değişimleri arasındaki ilişkinin incelenmesi
Investigation of the relationship between local climate zones and land surface temperature changes in İstanbul using remote sensing and deep learning methods
MELİKE NİCANCI SİNANOĞLU
Yüksek Lisans
Türkçe
2024
Jeodezi ve Fotogrametriİstanbul Teknik Üniversitesiİletişim Sistemleri Ana Bilim Dalı
PROF. DR. ŞİNASİ KAYA