Laporkan Masalah

Perbandingan Metode Optimasi Stochastic Gradient Descent, ADADELTA, dan Adam pada Jaringan Saraf Tiruan dalam Klasifikasi Data Aritmia

FIRMA SYAHRIAN, Dr. Azhari SN, MT.;Moh. Edi Wibowo, M.Kom., Ph.D

2016 | Tesis | S2 Ilmu Komputer

Metode optimasi Gradient Descent sering digunakan untuk pelatihan Jaringan Syaraf Tiruan (JST). Metode ini berperan dalam menemukan nilai bobot yang memberikan nilai keluaran terbaik. Prinsip kerja metode Gradient Descent adalah memperkecil nilai fungsi biaya dengan mengubah nilai parameter selangkah demi selangkah. Semakin baik kinerja metode optimasi maka akurasi dan waktu proses yang diberikan oleh Jaringan Syaraf Tiruan akan semakin baik pula. Telah diimplementasikan tiga buah metode optimasi yaitu Stochastic Gradient Descent (SGD), ADADELTA, dan Adam pada sistem Jaringan Saraf Tiruan untuk klasifikasi data aritmia. Penelitian ini menggunakan batas nilai kesalahan 0,0001 sebagai kriteria pemberhentian pelatihan. Hasil penelitian menunjukkan Jaringan Saraf Tiruan dengan optimasi Adam membutuhkan waktu pelatihan dan epoch paling sedikit dibandingkan dengan Jaringan Saraf Tiruan dengan metode optimasi SGD dan ADADELTA.

Gradient Descent optimization method is commonly used to train Artificial Neural Networks. This method works as optimizer whose objective is finding the right parameter values as it provides minium value of cost function. Minimum value of cost function means the sistem has a small probability of error. The better the optimization method used in Neural Networks, the better performance that Neural Netwoks system will yield. This research compares the performance of Stochastic Gradient Descent (SGD), ADADELTA, and Adam optimization methods in Arrhythmia data classification using Neural Networks. The stopping criteria for training phase used in this research is error threshod. Result shows that Adam needs the least time and epoch to train the model compared to ADADELTA and SGD.

Kata Kunci : metode optimasi, Gradient Descent, ADADELTA, Adam

  1. S2-2016-324333-abstract.pdf  
  2. S2-2016-324333-bibliography.pdf  
  3. S2-2016-324333-tableofcontent.pdf  
  4. S2-2016-324333-title.pdf