Laporkan Masalah

ANALISIS SENTIMEN PADA ULASAN APLIKASI PEDULI LINDUNGI MENGGUNAKAN BIDIRECTIONAL ENCODER REPRESENTATIONS FROM TRANSFORMERS EMBEDDING

Muhammad Rizky Khairullah, I Gede Mujiyatna, S.Kom.,M.Kom; Erwin Eko Wahyudi, S.Kom., M.Cs.

2023 | Skripsi | ILMU KOMPUTER

Indonesia melalui Kementerian Komunikasi dan Informatika bekerja sama dengan Komite Penanganan Covid-19 telah meluncurkan sebuah aplikasi bernama Peduli Lindungi. Aplikasi ini bertujuan untuk membantu penanganan Covid-19. Ulasan yang diberikan oleh masyarakat mengenai aplikasi Peduli Lindungi di halaman app store dapat dianalisis guna memahami sentimen masyarakat terhadap aplikasi tersebut. Hal ini bertujuan untuk meningkatkan kualitas aplikasi dan menentukan pengembangan fitur selanjutnya.

Penelitian ini membandingkan performa 2 variasi pre-trained model BERT yaitu IndoBERT dan Multilingual dengan performa model Random Forest dari penelitian Pulungan et al. (2022)  yang menghasilkan akurasi 0,71, recall 0,72, precision 0,71 dan f1 0,71. Data yang digunakan pada penelitian ini merupakan review aplikasi Peduli Lindungi yang sudah didapatkan dan di-preprocessing pada penelitian yang dilakukan oleh Pulungan et al. (2022).

Hasil penelitian ini menunjukkan bahwa model IndoBERT memiliki performa terbaik dibandingkan dengan Multilingual BERT dan Random Forest pada hyperparameter terbaik masing-masing. Model IndoBERT dengan model IndoBERT dengan hyperparameter terbaiknya yaitu batch size 32, learning rate 2e-5 dan epoch 25 menghasilkan akurasi 0,78, recall 0,78, precision 0,77 dan f1 0,77.

Indonesia, through the Ministry of Communication and Informatics, in collaboration with the COVID-19 Handling Committee, has launched an application called Peduli Lindungi. This application aims to assist in the handling of COVID-19. Reviews provided by the public regarding the Peduli Lindungi application on the app store page can be analyzed to understand public sentiment towards the application. This is intended to improve the quality of the application and determine further feature development.

This research compares the performance of two variations of pre-trained BERT models, namely IndoBERT and Multilingual BERT, with the performance of the Random Forest model from Pulungan et al.'s research (2022), which resulted in an accuracy of 0.71, recall of 0.72, precision of 0.71, and F1 score of 0.71. The data used in this research consists of reviews of the Peduli Lindungi application that have been obtained and preprocessed in the study conducted by Pulungan et al. (2022).

The results of this research indicate that the IndoBERT model performs better compared to Multilingual BERT and Random Forest with their respective best hyperparameters. The IndoBERT model with its best hyperparameters, namely a batch size of 32, learning rate of 2e-5, and 25 epochs, achieved an accuracy of 0.78, recall of 0.78, precision of 0.77, and F1 score of 0.77

Kata Kunci : Analisis Sentimen, Review Aplikasi, IndoBERT, Multilingual BERT, Peduli Lindungi, Random Forest

  1. S1-2023-442480-abstract.pdf  
  2. S1-2023-442480-bibliography.pdf  
  3. S1-2023-442480-tableofcontent.pdf  
  4. S1-2023-442480-title.pdf