Göğüs X-ışını (GXI) görüntüleri, Covid19, zatürre, tüberküloz, kanser gibi hastalıkların tespiti ve ayırt edilmesi için kullanılır. GXI görüntülerinden sağlık takibi ve teşhisi için Derin Öğrenme tekniklerine dayalı birçok tıbbi görüntü analiz yöntemi önerilmiştir. Derin Öğrenme teknikleri, organ segmentasyonu ve kanser tespiti gibi çeşitli tıbbi uygulamalar için kullanılmıştır. Bu alanda yapılan mevcut çalışmalar hastalık teşhisi için akciğerin tümüne odaklanmaktadır. Bunun yerine sol ve sağ akciğer bölgelerine odaklanmanın Derin Öğrenme algoritmalarının hastalık sınıflandırma performansını artıracağı düşünülmektedir. Bu çalışmadaki amaç, derin öğrenme ve görüntü işleme yöntemlerini kullanarak GXI görüntülerinden akciğer bölgesini segmentlere ayıracak bir model geliştirmektir. Bu amaçla, Derin öğrenme yöntemi olan U-Net mimarisi tabanlı semantik segmentasyon modeli geliştirilmiştir. Yaygın olarak bilindiği gibi U-Net çeşitli uygulamalar için yüksek segmentasyon performansı gösterir. U-Net, evrişimli sinir ağı katmanlarından oluşturulmuş farklı bir mimaridir ve piksel temelli görüntü segmentasyon konusunda az sayıda eğitim görüntüsü olsa dahi klasik modellerden daha başarılı sonuç vermektedir. Modelin eğitim ve test işlemleri için ABD, Montgomery County Sağlık ve İnsan Hizmetleri Departmanının tüberküloz kontrol programından alınan 138 GXI görüntülerini içeren veri seti kullanılmıştır. Veri setinde bulunan görüntüler %80 eğitim, %10 doğrulama ve %10 test olarak rastgele bölünmüştür. Geliştirilen modelin performansı Dice katsayısı ile ölçülmüş ve ortalama 0,9763 Dice katsayısı değerine ulaşılmıştır. Model tarafından tespit edilen sol ve sağ akciğer bölgesinin GXI görüntülerinden kırpılarak çıkarılması önem arz etmektedir. Bunun için görüntü işleme yöntemi ile ikili görüntülerde bitsel işlem uygulanmıştır. Böylece GXI görüntülerinden akciğer bölgeleri elde edilmiştir. Elde edilen bu görüntüler ile GXI görüntüsünün tümüne odaklanmak yerine kırpılmış segmentli görüntüye odaklanmak birçok akciğer hastalıklarının sınıflandırılmasında kullanılabilir.
Chest X-ray (CXR) images are used to detect and differentiate diseases such as covid19, pneumonia, tuberculosis, and cancer. Many medical image analysis methods based on Deep Learning techniques have been proposed for health monitoring and diagnosis from CXR images. Deep Learning techniques have been used for various medical applications such as organ segmentation and cancer detection. Current studies in this area focus on the entire lung for disease diagnosis. Instead, it is thought that focusing on the left and right lung regions will improve the disease classification performance of Deep Learning algorithms. The aim of this study is to develop a model that will segment the lung region from CXR images using deep learning and image processing methods. For this purpose, a semantic segmentation model based on U-Net architecture, which is a deep learning method, has been developed. As it is widely known, U-Net shows high segmentation performance for various applications. U-Net is a different architecture composed of convolutional neural network layers and it gives more successful results in pixel-based image segmentation than classical models, even if there are few training images. For the training and testing of the model, the data set containing 138 chest X-ray images taken from the tuberculosis control program of the Montgomery County Health and Human Services Department, USA was used. The images in the dataset were randomly divided into 80% training, 10% validation, and 10% testing. The performance of the developed model was measured with the Dice Coefficient and the average value of 0.9763 Dice Coefficient was reached. It is important to crop the left and right lung regions detected by the model from the CXR images. For this, bitwise processing is applied to binary images with the image processing method. Thus, lung regions were obtained from CXR images. With these images, focusing on the cropped segment image instead of the overall CXR image can be used to classify many lung diseases.
Primary Language | Turkish |
---|---|
Subjects | Artificial Intelligence |
Journal Section | Research Article |
Authors | |
Early Pub Date | October 14, 2022 |
Publication Date | December 31, 2022 |
Submission Date | July 4, 2022 |
Published in Issue | Year 2022 Volume: 6 Issue: 3 |
International Journal of 3D Printing Technologies and Digital Industry is lisenced under Creative Commons Atıf-GayriTicari 4.0 Uluslararası Lisansı