Laporkan Masalah

ATTENTION-BASED BIDIRECTIONAL LONG SHORT TERM MEMORY UNTUK PENANGANAN NEGASI PADA ANALISIS SENTIMEN

RISZKI WIJAYATUN P, Yohanes Suyanto, M.Ikom., Dr. ; Yunitas Sari,S.Kom., M.Sc., Ph.D

2020 | Tesis | MAGISTER ILMU KOMPUTER

Penelitian tentang analisis sentimen beberapa tahun ini telah terjadi peningkatan. Akan tetapi pada penelitian analisis sentimen masih sedikit yang menggagas tentang penanganan negasi, salah satunya dalam kalimat Bahasa Indonesia. Hal ini mengakibatkan kalimat yang mengandung unsur kata negasi belum ditemukan polaritasnya secara tepat. Attention-based Bidirectional Long Short Term Memory (BiLSTM) merupakan salah satu metode yang diterapkan untuk menangani kata negasi. Prinsip utama dari mekanisme attention yaitu pemberian bobot pada setiap kata untuk sebuah kalimat. Bobot ini kemudian akan di update pada proses training, sehingga pada akhirnya ditemukan bobot yang sesuai untuk masing-masing kata. Pada penelitian ini bagian yang penting dari sebuah kalimat berupa kata negasi, yaitu kata bukan, tidak dan jangan. Tujuan dari penelitian ini adalah menganalisis pengaruh kata negasi pada kalimat Bahasa Indonesia. Berdasarkan kelas positif, netral dan negatif, dengan menggunakan attention-based Long Short Term Memory dan Metode ekstraksi fitur word2vec dengan arsitektur Continuous bag-of-word (CBOW). Dataset yang digunakan berupa data dari Twitter. Performa model dilihat pada nilai akurasi. Penggunaan word2vec dengan arsitektur CBOW dan penambahan layer attention Bidirectional Long short Term Memory (BiLSTM) memperoleh hasil BiLSTM menghasilkan akurasi 79.68% sedangkan pada BiLSTM tanpa layer attention mendapatkan hasil akurasi 76.87%. sedangkan pada metode naive bayes dengan ditambah algoritme FSW 67.34% dan FWL 68.79%. Sehingga dapat disimpulkan, attention based BiLSTM memiliki akurasi tertinggi namun penambahan layer attention pada metode Bidirectional Long Short Term Memory tidak terlalu signifikan untuk penanganan negasi. karena pada penambahan layer attention tidak dapat menentukan kata yang ingin diperhatikan.

Research on sentiment analysis in recent years has increased. However, in sentiment analysis research there are still few ideas about the handling of negation, one of which is in the Indonesian sentence. This results in sentences that contain elements of the word negation have not found the exact polarity. Attention-based Bidirectional Long Short Term Memory (BiLSTM) is one of the methods applied to handle negation words. The main principle of the attention mechanism is giving weight to each word for a sentence. This weight will then be updated during the training process, so that in the end it is found the appropriate weight for each word. In this study, an important part of sentence is in the form of a negation word, namely the word of "tidak, bukan and jangan". The purpose of this study was to analyze the effect of the word negation on Indonesian sentences. Based on positive, neutral and negative classes, using attention-based Long Short Term Memory and word2vec feature extraction method with continuous bag-of-word (CBOW) architecture. The dataset used is data from Twitter. Model performance is seen in the accuracy value. The use of word2vec with CBOW architecture and the addition of layer attention to Bidirectional Long Short Term Memory (BiLSTM) methods obtained BiLSTM resulted in an accuracy of 79.68% and BiLSTM without layer attention it gets 76.87% accuracy. Whereas in the Naive Bayes method with the added algorithm 67.34% FSW and 68.79% FWL. So it can be concluded that attention based BiLSTM has the highest accuracy but the addition of layer attention to the Bidirectional Long Short Term Memory method is not too significant for negation handling. because the addition of the attention layer cannot determine the words that you want to pay attention to.

Kata Kunci : BiLSTM, Attention based BiLSTM, Negasi, Analisis sentimen

  1. S2-2020-433794-abstract.pdf  
  2. S2-2020-433794-bibliography.pdf  
  3. S2-2020-433794-tableofcontent.pdf  
  4. S2-2020-433794-title.pdf