Laporkan Masalah

RECURRENT RESIDUAL U-NET BERBASIS CONVOLUTIONAL NEURAL NETWORK UNTUK SEGMENTASI TUMOR OTAK PADA CITRA MRI

DANY CANDRA F, Indah Soesanti Dr., S.T., M.T; Ir. Hanung Adi Nugroho, S.T., M.E., Ph.D., IPM

2022 | Tesis | MAGISTER TEKNOLOGI INFORMASI

Identifikasi tumor sejak dini dengan cara segmentasi melalui citra hasil MRI dapat membantu tenaga medis untuk melakukan perkiraan pertumbuhan tumor dan menentukan tindakan medis yang diperlukan. Namun, untuk melakukan segmentasi tumor otak melalui citra MRI secara akurat sulit dilakukan karena tiap pasien memiliki kondisi yang berbeda-beda. Segmentasi menggunakan arsitektur U-Net berbasis Convolutional Neuro Network (CNN) telah dilakukan, namun kinerjanya masih dapat ditingkatkan. Beberapa penelitian sebelumnya menunjukan segmentasi tumor otak yang dilakukan hanya pada citra tumor otak high grade glioma (HGG), sedangkan citra tumor otak low grade glioma (LGG) juga sangat perlu untuk dikaji. Segmentasi pada label full tumor mayoritas hanya memanfaatkan multimodal citra FLAIR, padahal dalam dataset terdapat multimodal T2 yang juga dapat digunakan untuk mengetahui kondisi otak normal atau abnormal. Penelitian ini bertujuan untuk menghasilkan model deep learning yang mampu melakukan segmentasi tumor jenis HGG dan LGG. Meningkatkan hasil segmentasi tumor otak menggunakan Recurrent Residual U-Net (R2U-Net). R2U-Net merupakan modifikasi dari U-Net. Perbedaan antara U-Net dengan R2U-Net terdapat pada lapisan konvolusinya. U-Net memiliki lapisan konvolusi maju seperti pada lapisan konvolusi pada umumnya, sedangkan R2U-Net memiliki lapisan konvolusi yang berulang dan konektifitas yang bersifat residual. Meningkatkan kualitas segmentasi pada label full tumor dengan kombinasi citra FLAIR dan T2 dilakukan pada arsitektur R2U-Net sebagai citra input. Penelitian dilakukan dengan percobaan R2U-Net yang diuji pada tiga wilayah sub tumor full tumor, core tumor dan enhanced tumor. Hasil uji coba menunjukkan kinerja R2U-Net mampu melakukan segmentasi tumor HGG dan LGG yang unggul dibandingkan dengan arsitektur U-Net. Penggunaan kombinasi citra FLAIR dan T2 mampu meningkatkan kemampuan segmentasi R2U-Net pada segmentasi label full tumor.

Early identification of tumors by segmentation through MRI images can help medical personnel estimate tumor growth and determine the necessary medical action. However, it is difficult to accurately segment brain tumors through MRI images because each patient has different conditions. Several studies on tumor segmentation using U-Net based on Convolutional Neural Network (CNN) have been carried out, but its performance can still be improved. Several previous studies have shown that brain tumor segmentation is performed only on high-grade glioma (HGG) brain tumors. At the same time, low-grade glioma (LGG) brain tumors also need to be studied. The majority of segmentation on full-tumor labels only uses multimodal FLAIR images. In contrast, there is multimodal T2 in the dataset, which can also use to determine normal or abnormal brain conditions. This study aims to produce a deep learning model that segments HGG and LGG tumors and improves brain tumor segmentation results using Recurrent Residual U-Net (R2U-Net). R2U-Net is a modification of U-Net. The difference between U-Net and R2U-Net lies in the convolution layer. U-Net has a forward convolution layer as in general convolution layers, while R2U- Net has a repeating convolution layer and residual connectivity. Improving segmentation quality on full-tumor labels with FLAIR and T2 images was performed on the R2U-Net architecture as the input image. The study tested R2U-Net on three sub-tumor regions: full-tumor, core-tumor, and enhanced-tumor. The trial results show the performance of R2U-Net capable of segmenting superior HGG and LGG tumors compared to the U-Net architecture. Combining FLAIR and T2 images can improve the R2U -Net segmentation ability in full-tumor label segmentation.

Kata Kunci : MRI, Segmentasi tumor, Recurrent Residual U-Net

  1. S2-2022-437632-abstract.pdf  
  2. S2-2022-437632-bibliography.pdf  
  3. S2-2022-437632-tableofcontent.pdf  
  4. S2-2022-437632-title.pdf