Neural Machine Translation Berbasis Transformer dari Bahasa Inggris ke Bahasa Indonesia Informal
Partahi Bonaruli Sitorus, Teguh Bharata Adji, S.T., M.T., M.Eng., Ph.D.; Widyawan, S.T., M.Sc., Ph.D.
2026 | Skripsi | TEKNOLOGI INFORMASI
Penelitian ini membahas pengembangan model Neural Machine Translation (NMT) untuk menerjemahkan kalimat dari Bahasa Inggris formal ke Bahasa Indonesia informal. Latar belakang penelitian ini didorong oleh keterbatasan penelitian terdahulu yang umumnya berfokus pada translasi bahasa informal atau pada alih gaya dari Bahasa Indonesia informal ke formal, sementara kebutuhan akan translasi ke ragam informal semakin meningkat, khususnya pada domain komunikasi digital dan layanan pelanggan. Kondisi ini menimbulkan kesenjangan antara penggunaan bahasa sehari-hari dan kemampuan sistem penerjemahan otomatis yang tersedia.
Metode yang digunakan dalam penelitian ini meliputi pengumpulan dan pengolahan dataset paralel dari STIF dan Indocollex, serta proses fine-tuning terhadap dua model berbasis Transformer, yaitu mBART dan LLaMA 3.2. Proses fine-tuning dilakukan menggunakan teknik Low-Rank Adaptation (LoRA) untuk meningkatkan efisiensi pelatihan pada kondisi data terbatas. Evaluasi performa model dilakukan dengan menggunakan metrik sacreBLEU dan BERTScore guna mengukur kesesuaian semantik dan kualitas terjemahan yang dihasilkan.
Hasil penelitian menunjukkan bahwa kedua model yang dikembangkan mampu menghasilkan terjemahan Bahasa Indonesia dengan karakteristik informal yang sesuai konteks. Model hasil fine-tuning menunjukkan peningkatan kualitas dibandingkan model sebelum pelatihan, meskipun nilai BLEU yang diperoleh masih berada pada kategori moderat, yaitu sekitar 15. Temuan ini menunjukkan bahwa pendekatan Transformer dengan fine-tuning memiliki potensi untuk mendukung pengembangan sistem translasi bahasa informal, serta dapat menjadi dasar bagi penelitian lanjutan di bidang Natural Language Processing berbahasa Indonesia.
This research discusses the development of a Neural Machine Translation (NMT) model for translating sentences from formal English into informal Indonesian. The motivation for this study arises from the limitations of previous research, which has generally focused on translating informal language or on style transfer from informal Indonesian to formal Indonesian. Meanwhile, the demand for translation into informal language has continued to increase, particularly in the domains of digital communication and customer service. This condition creates a gap between everyday language usage and the capabilities of existing automatic translation systems.
The methodology employed in this research includes the collection and preprocessing of parallel datasets from STIF and IndoCollex, as well as the fine-tuning of two Transformer-based models, namely mBART and LLaMA 3.2. The fine-tuning process is conducted using the Low-Rank Adaptation (LoRA) technique to improve training efficiency under limited data conditions. Model performance is evaluated using the sacreBLEU and BERTScore metrics to assess semantic adequacy and translation quality.
The results show that both developed models are capable of producing Indonesian translations with informal characteristics that are appropriate to the given context. The fine-tuned models demonstrate improved quality compared to their pre-trained counterparts, although the obtained BLEU scores remain in the moderate range, at approximately 15. These findings indicate that the Transformer-based approach with fine-tuning has the potential to support the development of informal language translation systems and can serve as a foundation for further research in Indonesian Natural Language Processing.
Kata Kunci : Neural Machine Translation, Transformer, Colloquial Language