Please use this identifier to cite or link to this item: https://hdl.handle.net/11499/58023
Title: Derin pekiştirmeli öğrenmeye dayalı otonom sürüş için açıklanabilir yapay zeka
Other Titles: Explainable artificial intelligence (XAI) for deep reinforcement learning based autonomous driving
Authors: Kompas, Muhsin
Advisors: Kök, İbrahim
Keywords: Açıklanabilir Yapay Zeka
Otonom Sürüş
Derin Pekiştirmeli Öğrenme
DDPG
PPO
TD3
TORCS
Explainable Artificial Intelligence
Autonomous Driving
Deep Reinforcement Learning
Artificial Intelligence
Deep Learning
XAI
AD
DRL
DDPG
PPO
TD3
TORCS
Abstract: Son yıllarda, yapay zeka ve bilgisayar teknolojilerindeki hızlı ilerlemenin de etkisiyle otonom araç teknolojisinde kayda değer bir artış yaşanmıştır. Günümüzde birçok büyük şirket ve endüstri paydaşı otonom araçlara yönelik aktif çalışmalar yürütmektedir. Otonom sürüş teknolojisinin veri odaklı ve derin öğrenme temelli tekniklerle hızla ilerlemesi, trafikteki sorunları azaltma ve verimliliği artırma potansiyeline sahip olsa da bu modellerin karmaşıklığı ve kara kutu yapısı nedeniyle karar verme süreçlerinin anlaşılabilirliği ve şeffaflığında önemli bir engel teşkil etmektedir. Bu bağlamda bir dizi hukuki, etik ve sosyo-psikolojik sorun ortaya çıkmaktadır. Açıklanabilir yapay zeka (Explainable Artificial Intelligence—XAI) metodolojilerinin uygulanması, otonom sürüş sistemlerinin güvenilirliğinin, hesap verebilirliğinin ve şeffaflığının arttırılmasında gelecek vaat eden çalışma alanı olarak ortaya çıkmıştır. Bu bağlamda XAI yasal düzenlemelere uygunluğun sağlanması, kullanıcıların güveninin arttırılması ve yazılım geliştirme tarafında eksikliklerin belirlenmesinde önemli bir rol oynama potansiyeline sahiptir. Bu tez çalışmasında, derin pekiştirmeli öğrenme (Deep Reinforcement Learning—DRL) tabanlı otonom sürüş sistemlerinin performansları ve XAI yaklaşımları incelenmiş, farklı senaryolar altında değerlendirilmiştir. Ayrıca XAI yöntemlerinin, otonom araçların yasal düzenlemelerle uyumlu hale getirilmesi ve toplum tarafından kabul edilmesini sağlama konusundaki rolü vurgulanmıştır. DRL modeli olarak TD3, DDPG ve PPO algoritmaları tercih edilmiştir. TORCS simülasyon ortamında gerçekleştirilen deneyler, DRL modellerinin eğitimi ve performans değerlendirmesi ile SHAP analizleri kapsamlı bir şekilde sunulmuştur. Eğitim ve test aşamalarında elde edilen bulgular TD3’ün en başarılı model olduğunu ortaya koymuştur. Modellerin karar verme süreçlerini etkileyen özellikler, SHAP teknikleri kullanılarak global ve lokal açıklanabilirlik analizleri ile değerlendirilmiştir. SHAP teknikleri ile global ve lokal açıklanabilirlik analizlerinde modellerin karar verirken etkilendikleri özellikler değerlendirilmiştir. TD3 modeline ait lokal açıklanabilirlik analizlerinde, TD3 modelinin uzman insan sürücü performansında eylemler sergilediği gözlemlenmiştir. Elde edilen bulgular, otonom araçların güvenilirliği ve hesap verebilirliği konusunda önemli katkılar sağlamaktadır. Bu tez, otonom sürüş sistemlerinin hem teknik hem de yasal gereksinimlere uygunluğunu sağlamada XAI yaklaşımlarının kritik bir rol oynadığını göstermektedir.
In recent years, there has been a notable surge in the development of autonomous vehicle technology, driven by the rapid advancements in artificial intelligence and computer technologies. At the current time, several key industry stakeholders are engaged in active work on the development of autonomous vehicles. While the accelerated advancement of autonomous driving technology through data-driven and deep learning-based techniques has the potential to mitigate traffic issues and enhance efficiency, the intricacy and black box structure of these models present a considerable obstacle to the comprehensibility and transparency of decision-making processes. In this context, a number of legal, ethical and socio-psychological issues emerge. The application of explainable artificial intelligence (XAI) methodologies has emerged as a promising field of study with the potential to enhance the reliability, accountability and transparency of autonomous driving systems. In this context, XAI has the potential to play an important role in ensuring compliance with legal regulations, increasing user confidence and identifying deficiencies in software development. This thesis analyses and evaluates the performance of deep reinforcement learning (DRL) based autonomous driving systems and XAI approaches under different scenarios. Furthermore, the necessity for XAI methods to guarantee that autonomous vehicles comply with legal regulations and are accepted by society is emphasised. The TD3, DDPG and PPO methods were selected as the DRL models. The experiments conducted in the TORCS simulation environment are presented in a comprehensive manner, including the training and performance evaluation of DRL models and SHAP analyses. The findings obtained from the training and testing phases indicated that TD3 was the most successful model. The impact of specific features on the decision-making processes of the models was evaluated through global and local explainability analyses utilising SHAP techniques. In the local explainability analyses of the TD3 model, it was observed that the TD3 model exhibited actions that were comparable to those of expert human drivers. The obtained findings contribute to the advancement of the reliability and accountability of autonomous vehicles. This thesis demonstrates that XAI approaches play a pivotal role in ensuring that autonomous driving systems comply with both technical and legal requirements.
URI: https://hdl.handle.net/11499/58023
Appears in Collections:Tez Koleksiyonu

Files in This Item:
File Description SizeFormat 
10521347.pdf3.52 MBAdobe PDFView/Open
Show full item record



CORE Recommender

Google ScholarTM

Check





Items in GCRIS Repository are protected by copyright, with all rights reserved, unless otherwise indicated.