Research Article
BibTex RIS Cite

DERİN ÖĞRENME VE GÖRÜNTÜ İŞLEME YÖNTEMLERİNİ KULLANARAK GÖĞÜS X-IŞINI GÖRÜNTÜLERİNDEN AKCİĞER BÖLGESİNİ TESPİT ETME

Year 2022, Volume: 6 Issue: 3, 459 - 468, 31.12.2022
https://doi.org/10.46519/ij3dptdi.1140171

Abstract

Göğüs X-ışını (GXI) görüntüleri, Covid19, zatürre, tüberküloz, kanser gibi hastalıkların tespiti ve ayırt edilmesi için kullanılır. GXI görüntülerinden sağlık takibi ve teşhisi için Derin Öğrenme tekniklerine dayalı birçok tıbbi görüntü analiz yöntemi önerilmiştir. Derin Öğrenme teknikleri, organ segmentasyonu ve kanser tespiti gibi çeşitli tıbbi uygulamalar için kullanılmıştır. Bu alanda yapılan mevcut çalışmalar hastalık teşhisi için akciğerin tümüne odaklanmaktadır. Bunun yerine sol ve sağ akciğer bölgelerine odaklanmanın Derin Öğrenme algoritmalarının hastalık sınıflandırma performansını artıracağı düşünülmektedir. Bu çalışmadaki amaç, derin öğrenme ve görüntü işleme yöntemlerini kullanarak GXI görüntülerinden akciğer bölgesini segmentlere ayıracak bir model geliştirmektir. Bu amaçla, Derin öğrenme yöntemi olan U-Net mimarisi tabanlı semantik segmentasyon modeli geliştirilmiştir. Yaygın olarak bilindiği gibi U-Net çeşitli uygulamalar için yüksek segmentasyon performansı gösterir. U-Net, evrişimli sinir ağı katmanlarından oluşturulmuş farklı bir mimaridir ve piksel temelli görüntü segmentasyon konusunda az sayıda eğitim görüntüsü olsa dahi klasik modellerden daha başarılı sonuç vermektedir. Modelin eğitim ve test işlemleri için ABD, Montgomery County Sağlık ve İnsan Hizmetleri Departmanının tüberküloz kontrol programından alınan 138 GXI görüntülerini içeren veri seti kullanılmıştır. Veri setinde bulunan görüntüler %80 eğitim, %10 doğrulama ve %10 test olarak rastgele bölünmüştür. Geliştirilen modelin performansı Dice katsayısı ile ölçülmüş ve ortalama 0,9763 Dice katsayısı değerine ulaşılmıştır. Model tarafından tespit edilen sol ve sağ akciğer bölgesinin GXI görüntülerinden kırpılarak çıkarılması önem arz etmektedir. Bunun için görüntü işleme yöntemi ile ikili görüntülerde bitsel işlem uygulanmıştır. Böylece GXI görüntülerinden akciğer bölgeleri elde edilmiştir. Elde edilen bu görüntüler ile GXI görüntüsünün tümüne odaklanmak yerine kırpılmış segmentli görüntüye odaklanmak birçok akciğer hastalıklarının sınıflandırılmasında kullanılabilir.

References

  • 1. Mique, E. and Malicdem, A., “Deep residual u-net based lung image segmentation for lung disease detection”, IOP Conference Series: Materials Science and Engineering, Vol. 803, Issue 1, Pages 012004, 2020.
  • 2. Heo, S. J., Kim, Y., Yun, S., Lim, S. S., Kim, J., Nam, C. M., Park, E. C., Jung, I. and Yoon, J.H., “Deep learning algorithms with demographic information help to detect tuberculosis in chest radiographs in annual workers health examination data”, International Journal of Environmental Research and Public Health, Vol. 16, Issue 2, Pages 2-9, 2019.
  • 3. Rahman, T., Khandakar, A., Kadir, M. A., Islam, K. R., Islam, K. F., Mazhar, R., Hamid, T., Islam, M. T., Kashem, S., Mahbub, Z. B., Ayari, M. A. and Chowdhury, M. E. H., “Reliable tuberculosis detection using chest x-ray with deep learning, segmentation and visualization”, IEEE Access, Vol. 8, Pages 191586-191601, 2020.
  • 4. Souza, J. C., Banderia Diniz, J. O., Ferreira, J. L., França da Silva, G. L., Corrêa Silva, A. and de Paiva, A. C., “An automatic method for lung segmentation and reconstruction in chest X-ray using deep neural networks”, Computer Methods and Programs in Biomedicine, Vol. 177, Pages 285-296, 2019.
  • 5. Liu, W., Luo, J., Yang, Y., Wang, W., Deng, J. and Yu, L., “Automatic lung segmentation in chest x-ray images using improved u-net”, Research Square, Vol. 12, Issue 1, Pages 1-11, 2021.
  • 6. Gite, S., Mishra, A. and Kotecha, K., “Enhanced lung image segmentation using deep learning”, Neural Computing for IOT based Intelligent Healthcare Systems, Pages 1-15, 2022.
  • 7. Reza, S., Amin, O. B. and Hashem, M. M. A., “TransResUNet: Improving u-net architecture for robust lungs segmentation in chest x-rays”, 2020 IEEE Region 10 Symposium (TENSYMP), Dhaka, Pages 1592-1595, 2020.
  • 8. Cohen, J. P., “Montgomery county x-ray set”, https://academictorrents.com/details/ac786f74878a5775c81d490b23842fd4736bfe33/tech, February 11, 2019.
  • 9. Ronneberger, O., Fischer, P. and Brox, T., “U-Net: Convolutional networks for biomedical image segmentation”, Medical Image Computing and Computer-Assisted Intervention – MICCAI 2015, Vol. 9351, Pages 234–241, 2015.
  • 10. Koç, A. B. ve Akgün, D., “U-net mimarileri ile glioma tümör segmentasyonu üzerine bir literatür çalışması”, Avrupa Bilim ve Teknoloji Dergisi, Cilt 26, Sayfa 407-414, 2021.
  • 11. Eker, A. G., ve Duru, N., “Medikal görüntü işlemede derin öğrenme uygulamaları”, Acta Infologica, Cilt 5, Sayı 2, Sayfa 459-474, 2021.
  • 12. Liu, L., Cheng, J., Quan, Q., Wu, F.-X., Wang, Y.-P. and Wang, J., “A survey on u-shaped networks in medical image segmentations”, Neurocomputing, Vol. 409, Pages 244–258, 2020.
  • 13. Murugesan, B., Sarveswaran, K., Shankaranarayana, S. M., Ram, K., Joseph, J. and Sivaprakasam, M., “Psi-Net: shape and boundary aware joint multi-task deep network for medical image segmentation”, 41st Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC), Pages 7223-7226, Berlin, 2019.
  • 14. Candemir, S. and Antani, S., “A review on lung boundary detection in chest x-rays”, International Journal of Computer Assisted Radiology and Surgery, Vol. 14, Issue 4, Pages 563–576, 2019.
  • 15. Dice, L. R., “Measures of the amount of ecologic association between species”, Ecology, Vol. 26, Issue 3, Pages 297–302, 1945.
  • 16. Abedalla, A., Abdullah, M., Al-Ayyub, M. and Benkhelifa, E., “Chest X-ray pneumothorax segmentation using u-net with efficient net and resnet architectures”, PeerJ Computer Science, Vol. 7, Issue e607, Pages 1-36, 2021.
  • 17. Zak, M. and Krzyzak, A., “Classification of lung diseases using deep learning models”, Computational Science – ICCS 2020: 20th International Conference, Pages 621-634, Amsterdam, 2020.

DETECTING THE LUNG REGION FROM CHEST X-RAY IMAGES USING DEEP LEARNING AND IMAGE PROCESSING METHODS

Year 2022, Volume: 6 Issue: 3, 459 - 468, 31.12.2022
https://doi.org/10.46519/ij3dptdi.1140171

Abstract

Chest X-ray (CXR) images are used to detect and differentiate diseases such as covid19, pneumonia, tuberculosis, and cancer. Many medical image analysis methods based on Deep Learning techniques have been proposed for health monitoring and diagnosis from CXR images. Deep Learning techniques have been used for various medical applications such as organ segmentation and cancer detection. Current studies in this area focus on the entire lung for disease diagnosis. Instead, it is thought that focusing on the left and right lung regions will improve the disease classification performance of Deep Learning algorithms. The aim of this study is to develop a model that will segment the lung region from CXR images using deep learning and image processing methods. For this purpose, a semantic segmentation model based on U-Net architecture, which is a deep learning method, has been developed. As it is widely known, U-Net shows high segmentation performance for various applications. U-Net is a different architecture composed of convolutional neural network layers and it gives more successful results in pixel-based image segmentation than classical models, even if there are few training images. For the training and testing of the model, the data set containing 138 chest X-ray images taken from the tuberculosis control program of the Montgomery County Health and Human Services Department, USA was used. The images in the dataset were randomly divided into 80% training, 10% validation, and 10% testing. The performance of the developed model was measured with the Dice Coefficient and the average value of 0.9763 Dice Coefficient was reached. It is important to crop the left and right lung regions detected by the model from the CXR images. For this, bitwise processing is applied to binary images with the image processing method. Thus, lung regions were obtained from CXR images. With these images, focusing on the cropped segment image instead of the overall CXR image can be used to classify many lung diseases.

References

  • 1. Mique, E. and Malicdem, A., “Deep residual u-net based lung image segmentation for lung disease detection”, IOP Conference Series: Materials Science and Engineering, Vol. 803, Issue 1, Pages 012004, 2020.
  • 2. Heo, S. J., Kim, Y., Yun, S., Lim, S. S., Kim, J., Nam, C. M., Park, E. C., Jung, I. and Yoon, J.H., “Deep learning algorithms with demographic information help to detect tuberculosis in chest radiographs in annual workers health examination data”, International Journal of Environmental Research and Public Health, Vol. 16, Issue 2, Pages 2-9, 2019.
  • 3. Rahman, T., Khandakar, A., Kadir, M. A., Islam, K. R., Islam, K. F., Mazhar, R., Hamid, T., Islam, M. T., Kashem, S., Mahbub, Z. B., Ayari, M. A. and Chowdhury, M. E. H., “Reliable tuberculosis detection using chest x-ray with deep learning, segmentation and visualization”, IEEE Access, Vol. 8, Pages 191586-191601, 2020.
  • 4. Souza, J. C., Banderia Diniz, J. O., Ferreira, J. L., França da Silva, G. L., Corrêa Silva, A. and de Paiva, A. C., “An automatic method for lung segmentation and reconstruction in chest X-ray using deep neural networks”, Computer Methods and Programs in Biomedicine, Vol. 177, Pages 285-296, 2019.
  • 5. Liu, W., Luo, J., Yang, Y., Wang, W., Deng, J. and Yu, L., “Automatic lung segmentation in chest x-ray images using improved u-net”, Research Square, Vol. 12, Issue 1, Pages 1-11, 2021.
  • 6. Gite, S., Mishra, A. and Kotecha, K., “Enhanced lung image segmentation using deep learning”, Neural Computing for IOT based Intelligent Healthcare Systems, Pages 1-15, 2022.
  • 7. Reza, S., Amin, O. B. and Hashem, M. M. A., “TransResUNet: Improving u-net architecture for robust lungs segmentation in chest x-rays”, 2020 IEEE Region 10 Symposium (TENSYMP), Dhaka, Pages 1592-1595, 2020.
  • 8. Cohen, J. P., “Montgomery county x-ray set”, https://academictorrents.com/details/ac786f74878a5775c81d490b23842fd4736bfe33/tech, February 11, 2019.
  • 9. Ronneberger, O., Fischer, P. and Brox, T., “U-Net: Convolutional networks for biomedical image segmentation”, Medical Image Computing and Computer-Assisted Intervention – MICCAI 2015, Vol. 9351, Pages 234–241, 2015.
  • 10. Koç, A. B. ve Akgün, D., “U-net mimarileri ile glioma tümör segmentasyonu üzerine bir literatür çalışması”, Avrupa Bilim ve Teknoloji Dergisi, Cilt 26, Sayfa 407-414, 2021.
  • 11. Eker, A. G., ve Duru, N., “Medikal görüntü işlemede derin öğrenme uygulamaları”, Acta Infologica, Cilt 5, Sayı 2, Sayfa 459-474, 2021.
  • 12. Liu, L., Cheng, J., Quan, Q., Wu, F.-X., Wang, Y.-P. and Wang, J., “A survey on u-shaped networks in medical image segmentations”, Neurocomputing, Vol. 409, Pages 244–258, 2020.
  • 13. Murugesan, B., Sarveswaran, K., Shankaranarayana, S. M., Ram, K., Joseph, J. and Sivaprakasam, M., “Psi-Net: shape and boundary aware joint multi-task deep network for medical image segmentation”, 41st Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC), Pages 7223-7226, Berlin, 2019.
  • 14. Candemir, S. and Antani, S., “A review on lung boundary detection in chest x-rays”, International Journal of Computer Assisted Radiology and Surgery, Vol. 14, Issue 4, Pages 563–576, 2019.
  • 15. Dice, L. R., “Measures of the amount of ecologic association between species”, Ecology, Vol. 26, Issue 3, Pages 297–302, 1945.
  • 16. Abedalla, A., Abdullah, M., Al-Ayyub, M. and Benkhelifa, E., “Chest X-ray pneumothorax segmentation using u-net with efficient net and resnet architectures”, PeerJ Computer Science, Vol. 7, Issue e607, Pages 1-36, 2021.
  • 17. Zak, M. and Krzyzak, A., “Classification of lung diseases using deep learning models”, Computational Science – ICCS 2020: 20th International Conference, Pages 621-634, Amsterdam, 2020.
There are 17 citations in total.

Details

Primary Language Turkish
Subjects Artificial Intelligence
Journal Section Research Article
Authors

Nurefşan Karaca 0000-0002-3413-7887

Abdulkadir Karacı 0000-0002-2430-1372

Early Pub Date October 14, 2022
Publication Date December 31, 2022
Submission Date July 4, 2022
Published in Issue Year 2022 Volume: 6 Issue: 3

Cite

APA Karaca, N., & Karacı, A. (2022). DERİN ÖĞRENME VE GÖRÜNTÜ İŞLEME YÖNTEMLERİNİ KULLANARAK GÖĞÜS X-IŞINI GÖRÜNTÜLERİNDEN AKCİĞER BÖLGESİNİ TESPİT ETME. International Journal of 3D Printing Technologies and Digital Industry, 6(3), 459-468. https://doi.org/10.46519/ij3dptdi.1140171
AMA Karaca N, Karacı A. DERİN ÖĞRENME VE GÖRÜNTÜ İŞLEME YÖNTEMLERİNİ KULLANARAK GÖĞÜS X-IŞINI GÖRÜNTÜLERİNDEN AKCİĞER BÖLGESİNİ TESPİT ETME. IJ3DPTDI. December 2022;6(3):459-468. doi:10.46519/ij3dptdi.1140171
Chicago Karaca, Nurefşan, and Abdulkadir Karacı. “DERİN ÖĞRENME VE GÖRÜNTÜ İŞLEME YÖNTEMLERİNİ KULLANARAK GÖĞÜS X-IŞINI GÖRÜNTÜLERİNDEN AKCİĞER BÖLGESİNİ TESPİT ETME”. International Journal of 3D Printing Technologies and Digital Industry 6, no. 3 (December 2022): 459-68. https://doi.org/10.46519/ij3dptdi.1140171.
EndNote Karaca N, Karacı A (December 1, 2022) DERİN ÖĞRENME VE GÖRÜNTÜ İŞLEME YÖNTEMLERİNİ KULLANARAK GÖĞÜS X-IŞINI GÖRÜNTÜLERİNDEN AKCİĞER BÖLGESİNİ TESPİT ETME. International Journal of 3D Printing Technologies and Digital Industry 6 3 459–468.
IEEE N. Karaca and A. Karacı, “DERİN ÖĞRENME VE GÖRÜNTÜ İŞLEME YÖNTEMLERİNİ KULLANARAK GÖĞÜS X-IŞINI GÖRÜNTÜLERİNDEN AKCİĞER BÖLGESİNİ TESPİT ETME”, IJ3DPTDI, vol. 6, no. 3, pp. 459–468, 2022, doi: 10.46519/ij3dptdi.1140171.
ISNAD Karaca, Nurefşan - Karacı, Abdulkadir. “DERİN ÖĞRENME VE GÖRÜNTÜ İŞLEME YÖNTEMLERİNİ KULLANARAK GÖĞÜS X-IŞINI GÖRÜNTÜLERİNDEN AKCİĞER BÖLGESİNİ TESPİT ETME”. International Journal of 3D Printing Technologies and Digital Industry 6/3 (December 2022), 459-468. https://doi.org/10.46519/ij3dptdi.1140171.
JAMA Karaca N, Karacı A. DERİN ÖĞRENME VE GÖRÜNTÜ İŞLEME YÖNTEMLERİNİ KULLANARAK GÖĞÜS X-IŞINI GÖRÜNTÜLERİNDEN AKCİĞER BÖLGESİNİ TESPİT ETME. IJ3DPTDI. 2022;6:459–468.
MLA Karaca, Nurefşan and Abdulkadir Karacı. “DERİN ÖĞRENME VE GÖRÜNTÜ İŞLEME YÖNTEMLERİNİ KULLANARAK GÖĞÜS X-IŞINI GÖRÜNTÜLERİNDEN AKCİĞER BÖLGESİNİ TESPİT ETME”. International Journal of 3D Printing Technologies and Digital Industry, vol. 6, no. 3, 2022, pp. 459-68, doi:10.46519/ij3dptdi.1140171.
Vancouver Karaca N, Karacı A. DERİN ÖĞRENME VE GÖRÜNTÜ İŞLEME YÖNTEMLERİNİ KULLANARAK GÖĞÜS X-IŞINI GÖRÜNTÜLERİNDEN AKCİĞER BÖLGESİNİ TESPİT ETME. IJ3DPTDI. 2022;6(3):459-68.

download

International Journal of 3D Printing Technologies and Digital Industry is lisenced under Creative Commons Atıf-GayriTicari 4.0 Uluslararası Lisansı