Araştırma Makalesi
BibTex RIS Kaynak Göster

Meme Kanseri Veri Seti Kullanılarak Sentetik Veri Üretilmesi ve Resnet18 ile Sınıflandırılması

Yıl 2024, Cilt: 14 Sayı: 3, 74 - 85, 25.11.2024

Öz

Bilgi çağı olan günümüzde veri, özellikle teknolojinin hızla ilerlemesiyle birçok alanda kritik bir kaynak hâline gelmiştir. Veri doğru bir şekilde toplandığında, düzenlendiğinde ve analiz edildiğinde birçok sektörde etkili kararlar almak, süreçleri iyileştirmek ve başarı elde etmek için güçlü bir araç hâline gelir. Gerçek verinin kısıtlılığı, etiketlenmiş verinin elde edilmesinin maliyetli olması, bazı durumlarda ve alanlarda gizlilik ve güvenlik endişeleri gibi sebepler sentetik verilere ihtiyaç duyulmasına sebep olmuştur. Sentetik veriler, özellikle sağlık alanında hassaslık ve gizlilik endişeleri, yasal düzenlemeler, etik ve güvenliğin sağlanmaya çalışılması gibi nedenlerden dolayı önemli bir araçtır. Sentetik veri üretme amacıyla Derin Öğrenme (DÖ) modeli olan ÇÜA (Çekişmeli Üretici Ağlar) ortaya çıkmıştır. Bu çalışmada Meme Histopatoloji veri seti kullanılarak bir ÇÜA çeşidi olan ÇÖD-ÇÜA (Üretken Rekabetçi Ağlar için Çok Ölçekli Değişimler) ile kanser tespitinde yarar sağlamak amacıyla kötü huylu ve iyi huylu etiketli sentetik yama görselleri oluşturulmuştur. Sonrasında gerçek ve sentetik veriler ResNet18 modeli kullanılarak Aktarımlı Öğrenme ile dört farklı şekilde sınıflandırılmıştır. İlk sınıflandırmada gerçek veriler eğitim ve test verisi olarak kullanılıp %84 doğruluk oranı, ikinci sınıflandırmada sentetik veriler eğitim ve test verisi olarak kullanılıp %99 doğruluk oranı, üçüncü sınıflandırmada gerçek veriler eğitim, sentetik veriler test verisi olarak kullanılıp %81 doğruluk oranı, dördüncü sınıflandırmada sentetik veriler eğitim, gerçek veriler test verisi olarak kullanılıp %76 doğruluk oranı elde edilmiştir. Çalışma sonucunda dört farklı sınıflandırma ilişkilendirilerek sentetik görüntülerin orijinal verilere olan benzerliği ve gerçek veri gibi davranıp davranmadığı tespit edilmeye çalışılmıştır.

Kaynakça

  • Cruz-Roa, A., Basavanhally, A., González, F.A., Gilmore, H., Feldman, M.D., Ganesan, S., Shih, N., Tomaszewski, J.E., Madabhushi, A. 2014. Automatic detection of invasive ductal carcinoma in whole slide images with convolutional neural networks. Medical Imaging, Doi: 10.1117/12.2043872
  • Frid-Adar, M., Klang, E., Amitai, M., Goldberger, J., Greenspan, H. 2018. Synthetic data augmentation using GAN for improved liver lesion classification. IEEE 15th International Symposium on Biomedical Imaging (ISBI), pp. 289-293. Doi: 10.1109/ISBI.2018.8363576
  • Goodfellow, I.J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A.C., Bengio, Y. 2014. Generative adversarial networks. Communications of the ACM, 63(10): 139-144. Doi: 10.1145/3422622
  • Graves, A. 2013. Generating sequences with recurrent neural networks. ArXiv preprint, abs/1308.0850.
  • Gulrajani, I., Ahmed, F., Arjovsky, M., Dumoulin, V., Courville, A. 2017. Improved training of wasserstein gans. arXiv preprint, arXiv:1704.00028.
  • He, K., Zhang, X., Ren, S., Sun, J. 2015. Deep residual learning for image recognition. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 770-778. Doi: 10.1109/CVPR.2016.90
  • Janowczyk, A., Madabhushi, A. 2016. Deep learning for digital pathology image analysis: A comprehensive tutorial with selected use cases. J Pathol Inform., 7(29). Doi: 10.4103/2153-3539.186902
  • Karnewar, A., Wang, O. 2019. MSG-GAN: Multi-scale gradients for generative adversarial networks. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 7796-7805. Doi: 10.1109/CVPR42600.2020.00778
  • Karras, T., Laine, S., Aila, T. 2019. A style-based generator architecture for generative adversarial networks. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 4401-4410. Doi: 10.1109/CVPR.2019.00453
  • Kingma, D.P., Ba, J. 2015. Adam: A method for stochastic optimization. CoRR, abs/1412.6980.
  • LeCun, Y., Bottou, L., Bengio, Y., Haffner, P. 1998. Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11): 2278-2324. Doi: 10.1109/5.726791
  • Liu, S., Setio, A.A.A., Ghesu, F.C., Gibson, E., Grbic, S., Georgescu, B., Comaniciu, D. 2020. No surprises: Training robust lung nodule detection for low-dose CT scans by augmenting with adversarial attacks. IEEE Trans. Med. Imaging, 40(1): 335-345. Doi: 10.1109/TMI.2020.3028311
  • Salehinejad, H., Colak, E., Dowdell, T., Barfett, J., Valaee, S. 2018. Synthesizing chest X-ray pathology for training deep convolutional neural networks. IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 990-994. Doi: 10.1109/ICASSP.2018.8461382
  • Teh, Y., Tan, G.H., Taib, N.A., Rahmat, K., Westerhout, C.J., Fadzli, F., See, M.H., Jamaris, S., Yip, C.H. 2015. Opportunistic mammography screening provides effective detection rates in a limited resource healthcare system. BMC Cancer, 15: 405. Doi: 10.1186/s12885-015-1420-4
  • Xu, B., Wang, N., Chen, T., Li, M. 2015. Empirical evaluation of rectified activations in convolutional networks. ArXiv preprint, abs/1505.00853.
  • Zhu, J.Y., Park, T., Isola, P., Efros, A.A. 2017. Unpaired image-to-image translation using cycle-consistent adversarial networks. IEEE International Conference on Computer Vision (ICCV), pp. 2242-2251. Doi: 10.1109/ICCV.2017.244

Generation of Synthetic Data Using Breast Cancer Dataset and Classification with Resnet18

Yıl 2024, Cilt: 14 Sayı: 3, 74 - 85, 25.11.2024

Öz

Since technology is advancing so quickly in the modern era of information, data is becoming an essential resource in many fields. Correct data collection, organization, and analysis make it a potent tool for successful decision-making, process improvement, and success across a wide range of sectors. Synthetic data is required for a number of reasons, including the constraints of real data, the expense of collecting labeled data, and privacy and security problems in specific situations and domains. For a variety of reasons, including security, ethics, legal restrictions, sensitivity and privacy issues, and ethics, synthetic data is a valuable tool, particularly in the health sector. A Deep Learning (DL) model called GAN (Generative Adversarial Networks) has been developed with the intention of generating synthetic data. In this study, the Breast Histopathology dataset was used to generate malignant and benign labeled synthetic patch images using MSG-GAN (Multi-Scale Gradients for Generative Adversarial Networks), a form of GAN, to aid in cancer identification. After that, real and synthetic data were classified in four different ways with Transfer Learning (TL) using the ResNet18 model. In the first classification, real data is used as training and test data and an accuracy rate of 84%, in the second classification, synthetic data is used as training and test data and the accuracy rate is 99%, in the third classification, real data is used as training and synthetic data is used as test data and an accuracy rate of 81%, in the fourth classification, synthetic data is used as training and real data is used as test data and an accuracy rate of 76%. As a result of the study, four different classifications were associated and it was tried to determine whether the synthetic images are similar to the original data and whether they behave like real data.

Kaynakça

  • Cruz-Roa, A., Basavanhally, A., González, F.A., Gilmore, H., Feldman, M.D., Ganesan, S., Shih, N., Tomaszewski, J.E., Madabhushi, A. 2014. Automatic detection of invasive ductal carcinoma in whole slide images with convolutional neural networks. Medical Imaging, Doi: 10.1117/12.2043872
  • Frid-Adar, M., Klang, E., Amitai, M., Goldberger, J., Greenspan, H. 2018. Synthetic data augmentation using GAN for improved liver lesion classification. IEEE 15th International Symposium on Biomedical Imaging (ISBI), pp. 289-293. Doi: 10.1109/ISBI.2018.8363576
  • Goodfellow, I.J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A.C., Bengio, Y. 2014. Generative adversarial networks. Communications of the ACM, 63(10): 139-144. Doi: 10.1145/3422622
  • Graves, A. 2013. Generating sequences with recurrent neural networks. ArXiv preprint, abs/1308.0850.
  • Gulrajani, I., Ahmed, F., Arjovsky, M., Dumoulin, V., Courville, A. 2017. Improved training of wasserstein gans. arXiv preprint, arXiv:1704.00028.
  • He, K., Zhang, X., Ren, S., Sun, J. 2015. Deep residual learning for image recognition. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 770-778. Doi: 10.1109/CVPR.2016.90
  • Janowczyk, A., Madabhushi, A. 2016. Deep learning for digital pathology image analysis: A comprehensive tutorial with selected use cases. J Pathol Inform., 7(29). Doi: 10.4103/2153-3539.186902
  • Karnewar, A., Wang, O. 2019. MSG-GAN: Multi-scale gradients for generative adversarial networks. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 7796-7805. Doi: 10.1109/CVPR42600.2020.00778
  • Karras, T., Laine, S., Aila, T. 2019. A style-based generator architecture for generative adversarial networks. IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 4401-4410. Doi: 10.1109/CVPR.2019.00453
  • Kingma, D.P., Ba, J. 2015. Adam: A method for stochastic optimization. CoRR, abs/1412.6980.
  • LeCun, Y., Bottou, L., Bengio, Y., Haffner, P. 1998. Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11): 2278-2324. Doi: 10.1109/5.726791
  • Liu, S., Setio, A.A.A., Ghesu, F.C., Gibson, E., Grbic, S., Georgescu, B., Comaniciu, D. 2020. No surprises: Training robust lung nodule detection for low-dose CT scans by augmenting with adversarial attacks. IEEE Trans. Med. Imaging, 40(1): 335-345. Doi: 10.1109/TMI.2020.3028311
  • Salehinejad, H., Colak, E., Dowdell, T., Barfett, J., Valaee, S. 2018. Synthesizing chest X-ray pathology for training deep convolutional neural networks. IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 990-994. Doi: 10.1109/ICASSP.2018.8461382
  • Teh, Y., Tan, G.H., Taib, N.A., Rahmat, K., Westerhout, C.J., Fadzli, F., See, M.H., Jamaris, S., Yip, C.H. 2015. Opportunistic mammography screening provides effective detection rates in a limited resource healthcare system. BMC Cancer, 15: 405. Doi: 10.1186/s12885-015-1420-4
  • Xu, B., Wang, N., Chen, T., Li, M. 2015. Empirical evaluation of rectified activations in convolutional networks. ArXiv preprint, abs/1505.00853.
  • Zhu, J.Y., Park, T., Isola, P., Efros, A.A. 2017. Unpaired image-to-image translation using cycle-consistent adversarial networks. IEEE International Conference on Computer Vision (ICCV), pp. 2242-2251. Doi: 10.1109/ICCV.2017.244
Toplam 16 adet kaynakça vardır.

Ayrıntılar

Birincil Dil İngilizce
Konular Bilgisayar Yazılımı
Bölüm Araştırma Makaleleri
Yazarlar

Berin Aytar 0009-0006-9984-241X

Semra Gündüç 0000-0002-3811-9547

Yayımlanma Tarihi 25 Kasım 2024
Gönderilme Tarihi 27 Mayıs 2024
Kabul Tarihi 15 Eylül 2024
Yayımlandığı Sayı Yıl 2024 Cilt: 14 Sayı: 3

Kaynak Göster

APA Aytar, B., & Gündüç, S. (2024). Generation of Synthetic Data Using Breast Cancer Dataset and Classification with Resnet18. Karaelmas Fen Ve Mühendislik Dergisi, 14(3), 74-85. https://doi.org/10.7212/karaelmasfen.1489168
AMA Aytar B, Gündüç S. Generation of Synthetic Data Using Breast Cancer Dataset and Classification with Resnet18. Karaelmas Fen ve Mühendislik Dergisi. Kasım 2024;14(3):74-85. doi:10.7212/karaelmasfen.1489168
Chicago Aytar, Berin, ve Semra Gündüç. “Generation of Synthetic Data Using Breast Cancer Dataset and Classification With Resnet18”. Karaelmas Fen Ve Mühendislik Dergisi 14, sy. 3 (Kasım 2024): 74-85. https://doi.org/10.7212/karaelmasfen.1489168.
EndNote Aytar B, Gündüç S (01 Kasım 2024) Generation of Synthetic Data Using Breast Cancer Dataset and Classification with Resnet18. Karaelmas Fen ve Mühendislik Dergisi 14 3 74–85.
IEEE B. Aytar ve S. Gündüç, “Generation of Synthetic Data Using Breast Cancer Dataset and Classification with Resnet18”, Karaelmas Fen ve Mühendislik Dergisi, c. 14, sy. 3, ss. 74–85, 2024, doi: 10.7212/karaelmasfen.1489168.
ISNAD Aytar, Berin - Gündüç, Semra. “Generation of Synthetic Data Using Breast Cancer Dataset and Classification With Resnet18”. Karaelmas Fen ve Mühendislik Dergisi 14/3 (Kasım 2024), 74-85. https://doi.org/10.7212/karaelmasfen.1489168.
JAMA Aytar B, Gündüç S. Generation of Synthetic Data Using Breast Cancer Dataset and Classification with Resnet18. Karaelmas Fen ve Mühendislik Dergisi. 2024;14:74–85.
MLA Aytar, Berin ve Semra Gündüç. “Generation of Synthetic Data Using Breast Cancer Dataset and Classification With Resnet18”. Karaelmas Fen Ve Mühendislik Dergisi, c. 14, sy. 3, 2024, ss. 74-85, doi:10.7212/karaelmasfen.1489168.
Vancouver Aytar B, Gündüç S. Generation of Synthetic Data Using Breast Cancer Dataset and Classification with Resnet18. Karaelmas Fen ve Mühendislik Dergisi. 2024;14(3):74-85.