Laporkan Masalah

Optimalisasi Pengaturan Sinyal Lampu Lalu Lintas Menggunakan Kendali Adaptif dengan Algoritma Double Deep Q-Network

MUHAMMAD HAIDAR SULTHAN HARTANTO, M. Idham Ananta Timur, S.T., M.Kom

2021 | Skripsi | S1 ELEKTRONIKA DAN INSTRUMENTASI

Lampu lalu lintas di Indonesia bekerja kurang optimal karena menggunakan pengaturan waktu tetap yang menyebabkan waktu tunggu tidak akan berubah meskipun arus pada persimpangan tersebut lancar ataupun macet. Pengaturan waktu tetap dapat dioptimalisasi dengan menggunakan pengaturan adaptif. Metode yang digunakan adalah Reinforcement Learning untuk mendapatkan sistem yang dapat beradaptasi dan dapat terus belajar seiring waktu. Algoritma yang dipilih Double Deep Q-Network untuk membuat sistem yang mudah dirancang dan dipahami. Double Deep Q-Network merupakan pengembangan dari Q-learning yang mana menggunakan 2 neural network untuk memilih aksi terbaik dan penggunaan 2 neural network ini menyebabkan hasil optimal lebih cepat didapatkan serta mengurangi kesalahan pengambilan hasil awal yang tidak optimal dan menyebabkan permasalahan di kelanjutannya. Melalui simulator SUMO dilakukan proses pembelajaran dan pengujian dengan cara membuat simulasi lalu lintas yang menjalankan berbagai kondisi lalu lintas dan pada penelitian ini didapatkan algoritma double deep Q-network memiliki antrian kendaraan yang lebih sedikit dari pengaturan waktu tetap.

Traffic lights in Indonesia doesn't work optimally because they use a fixed time setting so that the waiting time will not change even though the flow at the intersection is smooth or jammed. Fixed timing can be optimized with adaptive settings. The method used is Reinforcement Learning to get a system that can adapt and can continue to learn over time. Double Deep Q-Network selected the algorithm to make the system easy to design and understand. Double Deep Q-Network is a development of Q-learning which uses 2 Neural networks to choose the best action and the use of 2 Neural networks causes optimal results to be obtained faster and reduces errors in taking initial results that are not optimal and causes problems in the sequel. Through the SUMO simulator, the learning and testing process is carried out by making traffic simulations that run various traffic conditions and in this study it was found that the double deep Q-network algorithm has fewer vehicle queues than fixed time settings.

Kata Kunci : Lampu Lalu Lintas Adaptif, DDQN, Neural Network , SUMO

  1. S1-2021-412575-abstract.pdf  
  2. S1-2021-412575-bibliography.pdf  
  3. S1-2021-412575-tableofcontent.pdf  
  4. S1-2021-412575-title.pdf