Please use this identifier to cite or link to this item: https://hdl.handle.net/11499/50300
Title: Bağımsız hareketli hava araçları için konumlandırma sistem tasarımı
Other Titles: Positioning system design for independent moving aircraft
Authors: Ekici, Murat
Advisors: Karpuz, Ceyhun
Keywords: ArUco
depo
dron
görsel referans işaretçisi
kapalı alan
konumlandırma
lojistik
drone
indoor
logistics
positioning
virtual fiducial marker
warehouse
Abstract: İnsansız hava araçlarının ve özellikle dronların hava içerisinde stabil hareket etmelerine yönelik bilim insanlarının yoğun çalışmaları, bu sorunun büyük oranda üstesinden gelinmesini sağlamıştır. Açık ve kapalı alanda GPS’den bağımsız navigasyon sistemleri, günümüz bilim insanlarının üzerinde fazlaca vakit harcadığı bir çalışma alanı haline gelmiştir. Bu çalışmada, AruCo markerlarla görsel odometri kullanan bir hava aracının, anlık topladığı görüntülere dayalı konumlandırmayı yüksek başarım oranıyla yapabildiği gösterilmeye çalışılmıştır. Konumlandırma başarım oranının hesaplanabilmesi için CoppeliaSim simülasyon programında bir simülasyon ortamı hazırlanmıştır. Kapalı alan simülasyonu olarak bir depo alanı tasarlanmıştır. Depo alanının etrafına ve alanın ortasına bir dizi toplamda 27 adet raf yerleştirilmiştir. Simülasyonda toplam 27 rafın her biri 6x6’lık ArUco tipi etiket kullanılarak etiketlenmiştir. ArUco etiketlerinin konumları her rafın sağ üst köşesine yerleştirilmiş ve numaralama saat yönünün tersi yönde yapılmıştır. Simülasyon ortamında hava aracının hareketi esnasında, aracın konum, atalet ölçüm birimleri (Inertial Measurement Units-IMU) ve kamera bilgileri alınmaktadır. Kameradan alınan görüntüden, artırılmış gerçeklik (Augmented Reality-AR) etiketlerinin varlığı tespit edilmiş ve etiket ID’sine göre etiketin var olup olmadığı, etiketin kameradaki piksel cinsinden koordinatları ve etiketin alanı hesaplanmıştır. Bu veriye ek olarak hava aracının pusula bilgisi de alınmaktadır. Hava aracının gerçek konum bilgisi ise makine öğrenmesi tahminlemesinde çıkış değeri olarak kullanılmak üzere alınmaktadır. Her konum verisi için bir regresyon modeli oluşturulmuştur. Regresyon modelleri ile hava aracının kamerasının AR etiketleri gördüğü her yerde anlık konum ve poz tahmini üretilmiş ve hata değeri hesaplanmıştır. Hava aracının konum bilgileri olan x, y, z ve poz bilgisi olan γ açısı regresyon tahminleri ile gerçek değerlerin ilişkisi hakkında bilgi veren R2 performans değerleri hesaplanmıştır. Kullanılan öğrenme algoritmaları için scikit-learn kütüphanesinden faydalanılmış olup varsayılan alt parametreler kullanılmıştır. Uygulanan algoritmalar arasında konumlandırma için en yüksek x değeri tahmininde 0,991 ile AdaBoost, en yüksek y değeri tahmininde 0,976 ile AdaBoost, en yüksek z değeri tahmininde 0,979 ile AdaBoost ve en yüksek Theta değeri tahminin de ise 0,816 değeri ile AdaBoost algoritması vermiştir. Mevcut konumlandırma ve poz tahmininde elde edilen R2 metriğine göre AdaBoost algoritması ile yapılan tahmin sonuçlarının daha yüksek olduğu görülmüştür.
Intensive work of scientists on the stable movement of unmanned aerial vehicles and especially drones in the air has largely overcome this problem. Indoor and outdoor GPS (Global Positioning System)-independent navigation systems have become a field of study on which today's scientists spend a lot of time. In this study, we tried to show that an aircraft using visual odometry with ArUco markers can perform localization based on instantaneous images with a high success rate. A simulation environment has been prepared in the CoppeliaSim simulation program to calculate the success rate of the localization. A warehouse space is planned as a closed space simulation. A series of racks are placed around the warehouse area and in the middle of the area, for a total of 27. In the simulation, each of the 27 racks in total is labeled using a 6x6 ArUco type label. ArUco labels are located at the upper right corner of each rack and are numbered counterclockwise. During the movement of the aircraft in the simulation environment, the location, IMU (Inertial Measurement Units) and camera information of the aircraft are obtained. From the image taken from the camera, the presence of augmented reality (AR) Tags are detected and the presence of the AR Tag, the coordinates of the AR Tag in pixels on the camera, and the area of the AR Tag is calculated according to the AR Tag ID. In addition to this data, the compass information of the aircraft is also taken. The actual location information of the aircraft is taken to be used as the output value in machine learning estimation. A regression model has been created for each location data. With the regression models, present location and pose estimates are produced in each region where the aircraft’s camera saw AR Tags and the error value is calculated. R2 performance values, which give information about the relationship between the x, y, z and γ angle regression estimates, which are the position information of the aircraft, and the actual values, were calculated. The scikit-learn library was used for the learning algorithms used and the default sub-parameters were used. Among the algorithms applied, AdaBoost gave 0.991 for the highest x value estimation for positioning, AdaBoost for 0.976 for the highest y value estimation, AdaBoost for 0.979 for the highest z value estimation, and AdaBoost for 0.816 for the highest theta value estimation. Based on the R2 metric obtained in the current positioning and pose estimation; It has been seen that the prediction results are higher with the AdaBoost algorithm.
Description: Bu tez çalışması Pamukkale Üniversitesi tarafından 2020FEBE046 nolu proje ile desteklenmiştir.
URI: https://hdl.handle.net/11499/50300
https://tez.yok.gov.tr/UlusalTezMerkezi/TezGoster?key=kIrIdtdJ31bRgjb6fHvMUeU1l9z3VFnggVSDbUULa449gYO1zpKMi5zKWf4_ksm6
Appears in Collections:Tez Koleksiyonu

Files in This Item:
File Description SizeFormat 
10281419.pdf3.75 MBAdobe PDFView/Open
Show full item record



CORE Recommender

Page view(s)

596
checked on Aug 24, 2024

Download(s)

500
checked on Aug 24, 2024

Google ScholarTM

Check





Items in GCRIS Repository are protected by copyright, with all rights reserved, unless otherwise indicated.