Laporkan Masalah

Analisis Perbandingan Kinerja RAG dan NON-RAG pada Chatbot Berbasis LLM

RAFIQA SURI LUQMANA AJI, Alif Subardono, S.T., M.Eng

2025 | Tugas Akhir | D4 TEKNOLOGI JARINGAN

Pengembangan chatbot berbasis Large Language Model (LLM) telah mengubah interaksi digital dengan komputer menjadi semakin mirip dengan interaksi manusia, namun efisiensi sumber daya komputasi dan akurasi respons masih menjadi tantangan. Penelitian ini berfokus pada analisis perbandingan beban komputasi dan akurasi chatbot LLM dengan implementasi Retrieval Augmented Generation (RAG) dan NON-RAG. Sistem chatbot dibangun menggunakan Ollama sebagai LLM lokal, Qdrant sebagai basis data vektor, PostgreSQL untuk chat log, dan n8n sebagai pusat workflow, seluruhnya di-deploy dalam Docker. Metodologi penelitian meliputi pengujian beban komputasi (CPU, RAM, waktu eksekusi) pada tiga skenario: baseline (tanpa chatbot), chatbot NON-RAG, dan chatbot RAG. Analisis juga mencakup perbandingan penggunaan basis komputasi CPU dan GPU untuk skenario RAG. Selain itu, akurasi jawaban chatbot dievaluasi berdasarkan kesesuaian dengan data eksternal. Hasil penelitian menunjukkan perbedaan signifikan dalam beban komputasi dan waktu eksekusi antara skenario NON-RAG dan RAG, serta dampak penggunaan CPU dibanding GPU pada kinerja sistem. Evaluasi akurasi memberikan wawasan tentang peningkatan kualitas respons dengan implementasi RAG. Hasil penelitian ini memberikan data empiris yang penting bagi pengembang dalam perancangan arsitektur dan pemilihan hardware, serta menjadi referensi bagi penelitian selanjutnya di bidang chatbot berbasis LLM.

The development of Large Language Model (LLM)-based chatbots has transformed digital interactions with computers, making them increasingly human-like; however, computational resource efficiency and response accuracy remain challenges. This research focuses on analyzing the comparative computational load and accuracy of LLM chatbots with Retrieval Augmented Generation (RAG) and NON-RAG implementations. The chatbot system is built using Ollama as the local LLM, Qdrant as the vector database, PostgreSQL for chat logs, and n8n as the workflow hub, all deployed within Docker. The research methodology includes testing computational load (CPU, RAM, execution time) across three scenarios: baseline (no chatbot), NON-RAG chatbot, and RAG chatbot. The analysis also compares CPU versus GPU computational base usage for the RAG scenario. Additionally, chatbot answer accuracy is evaluated based on its alignment with external data. The results show significant differences in computational load and execution time between the NON-RAG and RAG scenarios, as well as the impact of CPU compared to GPU usage on system performance. The accuracy evaluation provides insights into response quality improvements with RAG implementation. These findings provide crucial empirical data for developers in architecture design and hardware selection, and serve as a reference for future research in LLM-based chatbots.

Kata Kunci : Chatbot, Large Language Model (LLM), Retrieval Augmented Generation (RAG), Beban Komputasi, Akurasi, n8n, Computational Load, Accuracy.

  1. D4-2025-464277-abstract.pdf  
  2. D4-2025-464277-bibliography.pdf  
  3. D4-2025-464277-tableofcontent.pdf  
  4. D4-2025-464277-title.pdf