Breast cancer stands as a widespread ailment among women. Timely diagnosis and appropriate
intervention significantly enhance prospects of recovery and thwart disease progression. Visual
representations of breast cancer serve to delineate breast tissue into malignant and non-malignant
regions, offering crucial insights, including the discernment of malignant cells, assessment of tumor
dimensions, and staging of the neoplasm. Breast cancer screenings are implemented to ameliorate
sensitivities, especially within the cohort of young and pregnant women. However, instances exist
wherein the examination of radiographic portrayals may inadvertently overlook certain intricacies.
Advanced artificial intelligence paradigms, coupled with sophisticated computational methodologies,
are harnessed to attain outcomes of heightened precision. In this context, the segmentation
methodology facilitated by ultrasound technology emerges as a pivotal intervention. In the present
study, U-Net and an innovative Fully Convolutional Network architecture are utilized to identify
deviations and demarcate carcinogenic zones. Within the scope of this research, the proposed Fully
Convolutional Network architecture achieves a MeanIoU of 77.2%, precision rates of 71.6%, recall rates
of 77.7%, and an F1 score of 74.5% in testing images. Conversely, the U-Net model yields comparable
performance metrics, manifesting a MeanIoU of 76.4%, precision of 67.6%, recall of 80.4%, and an F1
score of 73%. Notably, the findings underscore the superiority of the proposed Fully Convolutional
Network paradigm over the U-Net architecture. These results accentuate the significance of
segmentation methodologies in the realm of breast cancer diagnosis and treatment, thus affirming the
superior efficacy of the suggested Fully Convolutional Network architecture relative to the U-Net
architecture.
Fully Convolutional Network U-Net breast image cancer cell segmentation
Meme kanseri kadınlar arasında yaygın bir hastalıktır. Zamanında teşhis ve uygun müdahale, iyileşme
beklentilerini önemli ölçüde artırır ve hastalığın ilerlemesini engeller. Meme kanserinin görsel
görüntüleri, meme dokusunu kötü huylu ve kötü huylu olmayan alanlara ayırmaya hizmet ederek, kötü
huylu hücrelerin ayırt edilmesi, tümör boyutlarının değerlendirilmesi ve neoplazmın evrelendirilmesi
dahil olmak üzere çok önemli bilgiler sağlar. Meme kanseri taramaları, özellikle genç ve hamile kadınlar
grubundaki hassasiyetleri iyileştirmek için yürürlüğe konmuştur. Bununla birlikte, radyografik tasvirlerin
incelenmesinin yanlışlıkla bazı incelikleri gözden kaçırabileceği durumlar da vardır. Gelişmiş yapay zeka
paradigmaları, sofistike hesaplama metodolojileri ile birleştiğinde, daha yüksek hassasiyette sonuçlar
elde etmek için kullanılmaktadır. Bu bağlamda, ultrason teknolojisi tarafından kolaylaştırılan
segmentasyon metodolojisi çok önemli bir müdahale olarak ortaya çıkmaktadır. Mevcut araştırmada,
sapmaların tanımlanması ve kanserojen bölgelerin belirlenmesi için U-Net ve yenilikçi bir Fully
Convolutional Network mimarisinden yararlanılmıştır. Bu çalışma kapsamında önerilen Fully
Convolutional Network mimarisi, test görüntülerinde %77,2 MeanIoU, %71,6 precision, %77,7 recall ve
%74,5 F1 skoru elde edilmiştir. U-Net modeli ile %76,4 MeanIoU, %67,6 precision, %80,4 recall ve %73
F1 skoru elde edilmiştir. Bulgular, önerilen Fully Convolutional Network mimarisinin U-Net modeline
göre daha iyi performans sergilediğini ortaya koymuştur. Bu sonuçlar, meme kanseri teşhisi ve tedavisi
için segmentasyon işleminin önemini vurgulamakta ve önerilen Fully Convolutional Network
mimarisinin U-Net mimarisinden daha başarılı olduğunu ortaya koymaktadır.
Fully Convolutional Network U-Net meme görüntüsü kanserli hücre segmentasyon
Birincil Dil | Türkçe |
---|---|
Konular | Bilgisayar Yazılımı |
Bölüm | Makaleler |
Yazarlar | |
Erken Görünüm Tarihi | 27 Ekim 2023 |
Yayımlanma Tarihi | 30 Ekim 2023 |
Gönderilme Tarihi | 2 Mart 2023 |
Yayımlandığı Sayı | Yıl 2023 Cilt: 23 Sayı: 5 |
Bu eser Creative Commons Atıf-GayriTicari 4.0 Uluslararası Lisansı ile lisanslanmıştır.