Laporkan Masalah

Segmentation of Optic Disc and Optic Cup on Fundus Images using Few-shot Weakly-supervised Approach

Pandega Abyan Zumarsyah, Prof. Ir. Hanung Adi Nugroho, S.T., M.E., Ph.D., IPM., SMIEEE.; Dr.Eng. Ir. Igi Ardiyanto, S.T., M.Eng., IPM., SMIEEE.

2025 | Tesis | S2 Teknologi Informasi

Glaukoma adalah penyakit mata yang dapat menyebabkan kebutaan permanen tanpa gejala awal, sehingga diagnosis dini sangat penting. Diagnosis biasanya melibatkan segmentasi optic disc (OD) dan optic cup (OC) yang sulit dilakukan secara manual. Terdapat berbagai metode deep learning untuk segmentasi ini, tetapi umumnya membutuhkan banyak data dengan label. Terdapat berbagai pendekatan untuk menyesuaikan deep learning pada data dengan label terbatas, salah satu yang paling sesuai adalah few-shot weakly-supervised segmentation (FWS). Tujuan penelitian ini adalah meningkatkan metode FWS yang ada untuk segmentasi OD dan OC. Label weak yang digunakan adalah label sparse di mana hanya beberapa piksel yang diberi label. Kami memperkenalkan Omni training yang memperbaiki pemanfaatan data dan memvariasikan nilai shot. Dengan belajar dari nilai shot yang bervariasi, model memberikan performa yang lebih baik. Kami juga mengembangkan versi efficient yang mengurangi beban komputasi dengan tetap mempertahankan performa. Selain itu, kami mengembangkan berbagai teknik sparsification untuk mensimulasikan label sparse seperti scribbles. Evaluasi komprehensif dilakukan dengan dataset DRISHTI-GS, REFUGE, dan RIM-ONE r3. Versi Omni dan efficient menunjukkan performa yang lebih baik dibandingkan versi asli, dengan metode terbaiknya adalah Efficient Omni ProtoSeg (EO-ProtoSeg). EO-ProtoSeg mencapai intersection over union (IoU) sebesar 88.15% untuk OD dan 71.17% untuk OC pada dataset REFUGE dengan hanya satu citra yang terlabeli sparse. Itu lebih baik dibanding metode few-shot dan semi-supervised yang membutuhkan lebih banyak citra terlabeli. EO-ProtoSeg juga sebanding dengan metode unsupervised domain adaptation tetapi lebih ringan dan tidak memerlukan pelatihan ulang. Hasil penelitian ini menunjukkan potensi FWS sebagai pendekatan yang efektif untuk segmentasi OD dan OC pada data dengan label terbatas.

Glaucoma is an eye disease that can cause permanent blindness without any initial symptoms, thus early diagnosis is crucial. The diagnosis usually involves optic disc (OD) and optic cup (OC) segmentation, which is hard to do manually. Deep learning methods have been widely used for this task, but they require large amount of labeled data. There are approaches to adapt deep learning for limited labeled data, one of the most suitable being few-shot weakly-supervised segmentation (FWS). This study aims to improve existing FWS methods for OD and OC segmentation. The weak supervision is in the form of sparse labels where only a few pixels are labeled. We introduce Omni training to enhance data utilization and diversify the number of shots. By learning from varying shots instead of a fixed one, the model achieves significantly better performance. We also develop efficient versions that reduce computational costs while maintaining strong performance. In addition, we develop sparsification techniques that simulate scribbles and other sparse labels. Comprehensive evaluations are performed on DRISHTI-GS, REFUGE, and RIM-ONE r3 datasets. We find that Omni and efficient versions outperform the original versions, with the best method being Efficient Omni ProtoSeg (EO-ProtoSeg). It achieves intersection over union (IoU) scores of 88.15% for OD and 71.17% for OC on the REFUGE dataset using just one sparsely labeled image, outperforming few-shot and semi-supervised methods that require more labeled images. EO-ProtoSeg is also comparable to unsupervised domain adaptation methods yet much lighter and does not require any retraining. The results highlight the potential of FWS as an effective approach for OD and OC segmentation with limited labeled data.

Kata Kunci : few-shot, weakly-supervised, segmentasi, label sparse, citra fundus

  1. S2-2025-526264-abstract.pdf  
  2. S2-2025-526264-bibliography.pdf  
  3. S2-2025-526264-tableofcontent.pdf  
  4. S2-2025-526264-title.pdf