İsaretçi takibi ile PnP tabanlı 6DoF poz tahminive CFD simülasyon karşılaştırması
PnP-based 6DoF pose estimation with marker trackingand CFD simulation comparison
- Tez No: 947875
- Danışmanlar: DOÇ. DR. MEHMET NURİ AKINCI
- Tez Türü: Yüksek Lisans
- Konular: Elektrik ve Elektronik Mühendisliği, Electrical and Electronics Engineering
- Anahtar Kelimeler: Belirtilmemiş.
- Yıl: 2025
- Dil: Türkçe
- Üniversite: İstanbul Teknik Üniversitesi
- Enstitü: Lisansüstü Eğitim Enstitüsü
- Ana Bilim Dalı: Elektronik-Haberleşme Eğitimi Ana Bilim Dalı
- Bilim Dalı: Telekomünikasyon Mühendisliği Bilim Dalı
- Sayfa Sayısı: 73
Özet
Bu çalışma, yükün altı serbestlik dereceli (6DoF) pozunun tahmini için n noktadan perspektif (PnP - Perspective-n-Point) yöntemini kullanmaktadır. Altı serbestlik derecesi, bir cismin üç boyutlu uzayda konumunu belirleyen üç doğrusal (x, y, z) ve üç açısal dönme hareketini (roll, pitch, yaw) ifade etmektedir. Poz tahmini, yükün gerçek zamanlı hareketlerini hassas bir şekilde belirlemek açısından önemlidir ve robotik, otonom araçlar, havacılık ve yük elleçleme sistemleri gibi çeşitli mühendislik alanlarında yaygın kullanım alanlarına sahiptir. Bu çalışmanın amacı, yükün hareketlerinin hassasiyetle belirlenmesini sağlayan etkili ve doğruluğu yüksek bir yöntem geliştirmek ve bu yöntemin performansını kapsamlı bir şekilde değerlendirmektir. Çalışmada kullanılan referans hareket verileri, yüksek doğruluklu Hesaplamalı Akışkanlar Dinamiği (CFD) tabanlı bir simülasyondan elde edilmiştir. Bu simülasyon, yükün hareket ettiği ortamdaki akışkan etkileşimlerini ve yük üzerindeki kuvvetleri ayrıntılı biçimde hesaba katarak gerçeğe yakın hareket profilleri sağlamaktadır. CFD simülasyonlarının yüksek hassasiyeti, elde edilen verilerin doğruluk referansı olarak kullanılmasına imkân tanımaktadır. Böylece geliştirilen poz tahmin algoritmasının gerçekçi koşullar altında değerlendirilmesi mümkün hale gelmiştir. Kamera sisteminin hassas bir şekilde kalibre edilmesi, bu çalışmanın önemli adımlarından biridir. Kamera kalibrasyonu için, satranç tahtası desenine sahip bir kalibrasyon panosu kullanılmıştır. Bu pano, kameranın iç parametrelerini belirlemek amacıyla farklı konumlardan ve açılardan görüntülenmiştir. Kameranın odak uzaklığı, mercek bozulması, optik merkez konumu gibi iç parametrelerinin doğru biçimde belirlenmesi, poz tahmin algoritmasının güvenilirliği açısından kritik öneme sahiptir. Poz tahmini için kullanılan yük, üzerinde önceden konumları bilinen işaretçiler (marker) ile donatılmıştır. Bu işaretçiler video kayıtları sırasında takip edilerek, görüntü kareleri üzerindeki iki boyutlu (2B) konumları belirlenmiştir. Bu işaretçilerin 3B dünya koordinatlarındaki konumları önceden belirlenmiş olduğundan, kamera görüntüsünde tespit edilen 2B konumları ile eşleştirilerek, yükün pozunun hesaplanmasında PnP algoritması kullanılmaktadır. Bu algoritma, kameranın iç parametreleri ve işaretçilerin gerçek dünyadaki konumları arasındaki ilişkiden faydalanarak yükün 6DoF pozunu tahmin etmektedir. Tahmin edilen poz verileri, video kaydındaki hareketlere bağlı olarak titreşimler ve ani değişimlerden dolayı genellikle gürültülü ve dalgalı olabilir. Bu nedenle, tahmin sonuçlarının kararlılığını ve doğruluğunu arttırmak amacıyla, Üstel Hareketli Ortalama (EMA - Exponential Moving Average) filtresi uygulanmıştır. EMA filtresi, geçmiş poz verilerinin etkisini kontrollü bir şekilde azaltarak tahmin edilen hareketlerin yumuşatılmasına ve daha güvenilir bir sonuç elde edilmesine olanak sağlar. Son olarak, elde edilen poz tahmini verilerinin doğruluğu, Kök Ortalama Kare Hata (RMSE - Root Mean Square Error) metriği kullanılarak CFD simülasyonundan elde edilen referans veriler ile karşılaştırılarak analiz edilmiştir. Bu analiz, geliştirilen yöntemin doğruluğunu ve gerçekçi hareket verilerine olan yakınlığını nicel olarak değerlendirmektedir. Yapılan değerlendirmeler, PnP tabanlı poz tahmin yönteminin yüksek hassasiyetle gerçek zamanlı hareketleri belirleyebileceğini göstermekte ve mühendislik uygulamalarındaki potansiyelini ortaya koymaktadır. Çalışma, yük taşıma sistemlerinde kamera tabanlı poz takibinin etkin biçimde kullanılabileceğini kanıtlayarak, bu yöntemlerin geliştirilmesi ve uygulanması konusunda önemli bir referans oluşturmaktadır.
Özet (Çeviri)
This thesis investigates the feasibility and effectiveness of a monocular vision-based system for estimating the six degrees of freedom (6DoF) pose of an airborne store during its safe separation from a host platform. The study aims to provide a reliable, cost-effective alternative to traditional photogrammetry systems by leveraging a single calibrated camera and fiducial markers placed on the store's surface. The estimated poses are benchmarked against high-fidelity reference data produced through Computational Fluid Dynamics (CFD) simulations. This hybrid approach combines elements of classical computer vision, robust statistical estimation, signal filtering, and aerodynamics to create a complete tracking and validation framework suited to both laboratory environments and live test scenarios. The importance of accurately determining 6DoF pose data—comprising three translational (X, Y, Z) and three rotational (roll, pitch, yaw) components—cannot be overstated in aerospace engineering. This data is critical during the store separation phase, a highly dynamic interval where slight deviations in motion can affect aerodynamic stability, structural integrity, and overall mission success. By replacing expensive and infrastructure-heavy photogrammetry setups with a lightweight monocular vision system, this work contributes to the democratization of motion tracking technologies in flight dynamics testing. The system architecture comprises four key modules: camera calibration, marker-based tracking, Perspective-n-Point (PnP) pose estimation, and temporal filtering. Calibration is performed using a checkerboard pattern viewed from multiple angles, enabling accurate estimation of intrinsic camera parameters such as focal length, principal point coordinates, and lens distortion coefficients. These parameters are critical for ensuring that perspective geometry is preserved during subsequent computations. Distortion correction is applied to all frames before pose estimation, mitigating systematic projection errors and maintaining the assumptions of the PnP formulation. Thirteen circular fiducial markers are applied to the store surface in a symmetric, tri-axial configuration centered around the center of gravity. Their positions in 3D space are precisely measured and stored. Each video frame is processed to detect the 2D centroids of these markers in the image plane, and a tracking algorithm maintains marker identities over time. These 2D–3D correspondences feed into a RANSAC-enhanced PnP solver, which computes the camera-to-object rotation matrix and translation vector. RANSAC rejects outlier correspondences due to occlusions or reflections, improving robustness. The result is a time series of 6DoF pose estimates across the entire release window. Despite the effectiveness of PnP algorithms, the raw pose data typically contains high-frequency jitter due to noise in marker detection and pixel quantization. To suppress this jitter, the thesis employs an Exponential Moving Average (EMA) filter. The forgetting factor of the EMA is tuned to preserve responsiveness while ensuring temporal smoothness. EMA filtering is applied independently to each pose component, and its effect is quantitatively assessed in terms of RMSE reduction and phase alignment with the CFD trajectory. The ground truth used for benchmarking comes from Siemens Simcenter STAR-CCM+, which simulates the store's dynamics under realistic aerodynamic conditions. The simulations encompass multiple release scenarios with varied initial angles of attack, external forces, and flight regimes (symmetric and asymmetric). Each simulation yields timestamped 6DoF trajectories, which are interpolated to match the video frame rate. These serve as a reference for evaluating the vision-based system's fidelity. RMSE analysis reveals that unfiltered PnP results already demonstrate credible performance, with average angular errors under 1° and positional errors under 3 cm. After EMA filtering, yaw error drops below 0.2°, and planar translations become even more consistent with CFD values. Beyond numerical metrics, qualitative assessments such as trajectory plots and phase comparisons are also conducted. These visualizations confirm that the vision system maintains temporal coherence with CFD results and accurately reproduces motion envelopes in all six degrees of freedom. The analysis highlights the advantage of using spatially diverse marker layouts, which eliminate common depth ambiguities in monocular setups. The system is shown to function reliably even with shallow baselines and partial occlusions, conditions that are common during airborne operations. To evaluate generalization, a Rubik's Cube with attached fiducials is used in an auxiliary experiment. The cube is rotated in arbitrary directions under different lighting conditions, and pose estimates are computed using the same pipeline. Despite its smaller size and lack of aerodynamic relevance, the cube test confirms that the system can track arbitrary rigid bodies, underscoring its potential in other domains such as augmented reality, robotics, and industrial inspection. The marker layout and detection framework are shown to be robust to dynamic lighting, shadowing, and moderate occlusion, further validating the versatility of the proposed approach. Several technical challenges were encountered and addressed during the study. For example, the accuracy of pose estimation is sensitive to marker placement, especially in scenarios where markers align along nearly planar configurations. Degenerate configurations were avoided through a careful 3D distribution of markers across the store's surface. Additionally, camera vibrations and frame rate limitations imposed constraints on high-speed motion tracking. These were partially mitigated through filtering and by adjusting lighting and exposure settings to minimize motion blur. The contributions of this research are both methodological and practical. Methodologically, the study offers a complete, reproducible framework for monocular 6DoF pose estimation that includes calibration, detection, filtering, and validation. Practically, it demonstrates that CFD-grade motion tracking can be achieved using consumer-grade hardware and open-source tools, thereby reducing both development cost and deployment complexity. The system achieves performance levels that meet or exceed many current industry benchmarks for pose tracking in experimental flight mechanics. Looking forward, the thesis outlines multiple avenues for future work. One promising direction is the integration of inertial measurement units (IMUs) with the vision system to provide redundancy and increase robustness against marker loss or occlusion. Sensor fusion strategies—such as Kalman filtering—could enhance short-term accuracy and extend the operational envelope. Another research path involves using deep learning for marker detection and identification, replacing conventional blob detectors with convolutional neural networks (e.g., YOLO or RetinaNet). These networks can operate under more challenging conditions, such as low contrast, variable illumination, or cluttered backgrounds, and could significantly improve marker recall and precision. Finally, integrating CFD feedback into the real-time pose estimation loop could enable adaptive filtering and prediction, opening the door to real-time control and validation of separation maneuvers in complex flow environments. In summary, this thesis presents a novel and effective method for 6DoF pose tracking using a monocular vision system. The approach combines classical geometric methods with modern filtering techniques and is validated against state-of-the-art CFD simulations. The results show that sub-degree rotational accuracy and centimeter-scale positional precision are achievable with low-cost equipment and minimal infrastructure. The modular nature of the system ensures scalability, while its robustness makes it suitable for deployment in safety-critical environments. The framework established here offers a foundation for future innovation in vision-based motion analysis and stands as a viable alternative to more complex and costly systems in aerospace, robotics, and beyond.
Benzer Tezler
- A 3D topological tracking system for augmented reality
Artırılmış gerçeklik için 3 boyutlu takip kütüphanesi
MÜNİR ERCAN
Yüksek Lisans
İngilizce
2010
Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve KontrolOrta Doğu Teknik ÜniversitesiBilgisayar Mühendisliği Bölümü
YRD. DOÇ. DR. TOLGA CAN
- İç mekanlarda zemin yol modeli üzerinde derin öğrenme ile otonom araçların rota takibi
Route tracking of autonomous vehicles with deep learning on the floor path model in indoor areas
MUSTAFA ERGİNLİ
Doktora
Türkçe
2023
Endüstri ve Endüstri MühendisliğiSakarya ÜniversitesiEndüstri Mühendisliği Ana Bilim Dalı
PROF. DR. İBRAHİM ÇİL
- Fiducial marker detection and identification for individual honey bee tracking using cascaded deep learning models
Ardışık derin öğrenme modelleri kullanarak bireysel arı takibi için güvenilir işaretçi tespiti ve çözümlenmesi
MUSTAFA YAVUZ KARA
Yüksek Lisans
İngilizce
2024
Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve KontrolOrta Doğu Teknik ÜniversitesiBilgisayar Mühendisliği Ana Bilim Dalı
DOÇ. DR. HANDE ALEMDAR
- Derin öğrenme tabanlı nesne takibi
Deep learning based object detection
BİLEN BAŞARIR
Yüksek Lisans
Türkçe
2019
Bilgisayar Mühendisliği Bilimleri-Bilgisayar ve KontrolBursa Uludağ ÜniversitesiBilgisayar Mühendisliği Ana Bilim Dalı
DOÇ. DR. AHMET EMİR DİRİK
- Uzaktan kumanda edilebilen mobil robota bağlı işaretleyici hedef takibi tasarımı
Target traking design with the pointer that mounted on the remote controllable mobile robot
ÖMER BERBER
Yüksek Lisans
Türkçe
2017
Elektrik ve Elektronik MühendisliğiKahramanmaraş Sütçü İmam ÜniversitesiElektrik-Elektronik Mühendisliği Ana Bilim Dalı
DOÇ. DR. MAHİT GÜNEŞ