Araştırma Makalesi
BibTex RIS Kaynak Göster

Verimli göğüs röntgeni yorumlamasına doğru: İlgili bölge çıkarımı, ağırlık başlangıçlandırma ve önişleme yöntemleri üzerine bir çalışma

Yıl 2026, Cilt: 17 Sayı: 1, - , 25.03.2026
https://doi.org/10.24012/dumf.1818553
https://izlik.org/JA89KB93KF

Öz

Accurate interpretation of chest X-rays (CXRs) using machine learning techniques plays a vital role in improving diagnostic practices within healthcare. This study advances CXR analysis by exploring various weight initialization and preprocessing methods with deep neural networks. Specifically, (i) an object detection model was trained to identify regions of interest (ROIs) within CXRs, enabling focused image analysis; (ii) weight initialization strategies, including partial fine-tuning, complete fine-tuning, and random initialization, were assessed using the EfficientNet-B1 model on both original and cropped images; and (iii) preprocessing techniques such as histogram equalization, bilateral filtering, Gaussian filtering, and Contrast Limited Adaptive Histogram Equalization (CLAHE) were applied to enhance image quality. Results show that ROI selection significantly improves model performance by focusing on relevant image areas (+4.8%). Pre-trained ImageNet weights with complete fine-tuning outperformed random initialization (+6.5%), demonstrating the advantages of transfer learning, particularly with limited datasets. Among preprocessing methods, the combination of CLAHE with Gaussian filtering achieved the highest validation accuracy (0.958), suggesting that advanced preprocessing methods substantially enhance model performance. These results underscore the importance of effective weight initialization and preprocessing in optimizing diagnostic accuracy and efficiency in CXR analysis.

Kaynakça

  • [1] WHO, “The top 10 causes of death.” Accessed: Aug. 03, 2024. [Online]. Available: https://www.who.int/news-room/fact-sheets/detail/the-top-10-causes-of-death
  • [2] WHO, “Chronic obstructive pulmonary disease (COPD).” Accessed: Aug. 03, 2024. [Online]. Available: https://www.who.int/news-room/fact-sheets/detail/chronic-obstructive-pulmonary-disease-(copd)
  • [3] WHO, “Lung cancer.” Accessed: Aug. 03, 2024. [Online]. Available: https://www.who.int/news-room/fact-sheets/detail/lung-cancer
  • [4] C. M. Jones et al., “Chest radiographs and machine learning – Past, present and future,” J. Med. Imaging Radiat. Oncol., vol. 65, no. 5, pp. 538–544, 2021, doi: 10.1111/1754-9485.13274.
  • [5] M. A. Thanoon, M. A. Zulkifley, M. A. A. Mohd Zainuri, and S. R. Abdani, “A Review of Deep Learning Techniques for Lung Cancer Screening and Diagnosis Based on CT Images,” Diagnostics, vol. 13, no. 16, 2023, doi: 10.3390/diagnostics13162617.
  • [6] C. Deniz, “Modern Computer Tomography with Artificial Intelligence and Deep Learning Applications,” Artif. Intell. Theory Appl., vol. 3, no. 2, pp. 123–136, 2023.
  • [7] R. Booij, R. P. J. Budde, M. L. Dijkshoorn, and M. van Straten, “Technological developments of X-ray computed tomography over half a century: User’s influence on protocol optimization,” Eur. J. Radiol., vol. 131, p. 109261, Oct. 2020, doi: 10.1016/j.ejrad.2020.109261.
  • [8] J. M. Jiang, L. Miao, X. Liang, Z. H. Liu, L. Zhang, and M. Li, “The Value of Deep Learning Image Reconstruction in Improving the Quality of Low-Dose Chest CT Images,” Diagnostics, vol. 12, no. 10, p. 2560, Oct. 2022, doi: 10.3390/diagnostics12102560.
  • [9] P. Celard, E. L. Iglesias, J. M. Sorribes-Fdez, R. Romero, A. S. Vieira, and L. Borrajo, “A survey on deep learning applied to medical images: from simple artificial neural networks to generative models,” Neural Comput. Appl., vol. 35, no. 3, pp. 2291–2323, 2023, doi: 10.1007/s00521-022-07953-4.
  • [10] X. Xie, J. Niu, X. Liu, Z. Chen, S. Tang, and S. Yu, “A survey on incorporating domain knowledge into deep learning for medical image analysis,” Med. Image Anal., vol. 69, 2021, doi: 10.1016/j.media.2021.101985.
  • [11] E. Çallı, E. Sogancioglu, B. van Ginneken, K. G. van Leeuwen, and K. Murphy, “Deep learning for chest X-ray analysis: A survey,” Med. Image Anal., vol. 72, 2021, doi: 10.1016/j.media.2021.102125.
  • [12] D. Meedeniya, H. Kumarasinghe, S. Kolonne, C. Fernando, I. D. la T. Díez, and G. Marques, “Chest X-ray analysis empowered with deep learning: A systematic review,” Appl. Soft Comput., vol. 126, 2022, doi: 10.1016/j.asoc.2022.109319.
  • [13] F. Shamshad et al., “Transformers in medical imaging: A survey,” in Medical Image Analysis, 2023. doi: 10.1016/j.media.2023.102802.
  • [14] A. Dosovitskiy et al., “an Image Is Worth 16X16 Words: Transformers for Image Recognition At Scale,” in ICLR 2021 - 9th International Conference on Learning Representations, 2021.
  • [15] X. Wu et al., “CheXNet: Combing Transformer and CNN for Thorax Disease Diagnosis from Chest X-ray Images,” in Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 2024, pp. 73–84. doi: 10.1007/978-981-99-8558-6_7.
  • [16] C. C. Ukwuoma et al., “A hybrid explainable ensemble transformer encoder for pneumonia identification from chest X-ray images,” J. Adv. Res., vol. 48, pp. 191–211, 2023, doi: 10.1016/j.jare.2022.08.021.
  • [17] O. F. Soylemez and B. Ergen, “Facial Landmark Based Region of Interest Localization for Deep Facial Expression Recognition,” Teh. Vjesn., vol. 29, no. 1, pp. 38–44, 2022, doi: 10.17559/TV-20200423145443.
  • [18] R. G, “A Study to Find Facts Behind Preprocessing on Deep Learning Algorithms,” J. Innov. Image Process., vol. 3, no. 1, pp. 66–74, 2021, doi: 10.36548/jiip.2021.1.006.
  • [19] M. V. Narkhede, P. P. Bartakke, and M. S. Sutaone, “A review on weight initialization strategies for neural networks,” Artif. Intell. Rev., vol. 55, no. 1, pp. 291–322, 2022, doi: 10.1007/s10462-021-10033-z.
  • [20] U. Avni, H. Greenspan, E. Konen, M. Sharon, and J. Goldberger, “X-ray categorization and retrieval on the organ and pathology level, using patch-based visual words,” IEEE Trans. Med. Imaging, vol. 30, no. 3, pp. 733–746, 2011, doi: 10.1109/TMI.2010.2095026.
  • [21] M. R. Zare, W. C. Seng, and A. Mueen, “Automatic classification of medical X-ray images,” Malaysian J. Comput. Sci., vol. 26, no. 1, pp. 9–22, 2013, doi: 10.22452/mjcs.vol26no1.2.
  • [22] N. R. S. Parveen and M. M. Sathik, “Detection of Pneumonia in chest X-ray images,” J. Xray. Sci. Technol., vol. 19, no. 4, pp. 423–428, 2011, doi: 10.3233/XST-2011-0304.
  • [23] L. Houam, A. Hafiane, A. Boukrouche, E. Lespessailles, and R. Jennane, “Texture characterization using local binary pattern and wavelets. Application to bone radiographs,” 2012 3rd Int. Conf. Image Process. Theory, Tools Appl. IPTA 2012, pp. 371–376, 2012, doi: 10.1109/IPTA.2012.6469546.
  • [24] V. Kumar and C. Science, “Neural Network Based Approach for Detection of Abnormal Regions of Lung Cancer in X-Ray Image,” vol. 1, no. 5, pp. 1–7, 2012.
  • [25] S. Jaeger et al., “Automatic tuberculosis screening using chest radiographs,” IEEE Trans. Med. Imaging, vol. 33, no. 2, pp. 233–245, Feb. 2014, doi: 10.1109/TMI.2013.2284099.
  • [26] H. Arimura, S. Katsuragawa, Q. Li, T. Ishida, and K. Doi, “Development of a computerized method for identifying the posteroanterior and lateral views of chest radiographs by use of a template matching technique,” Med. Phys., vol. 29, no. 7, pp. 1556–1561, 2002, doi: 10.1118/1.1487426.
  • [27] K. C. Santosh et al., “Rotation detection in chest radiographs based on generalized line histogram of rib-orientations,” Proc. - IEEE Symp. Comput. Med. Syst., pp. 138–142, 2014, doi: 10.1109/CBMS.2014.56.
  • [28] Ö. F. Söylemez, “Forward selection-based ensemble of deep neural networks for melanoma classification in dermoscopy images,” Int. J. Imaging Syst. Technol., vol. 33, no. 6, pp. 1929–1943, 2023, doi: 10.1002/ima.22912.
  • [29] Q. Wang et al., “Automated segmentation and diagnosis of pneumothorax on chest X-rays with fully convolutional multi-scale ScSE-DenseNet: a retrospective study,” BMC Med. Inform. Decis. Mak., vol. 20, 2020, doi: 10.1186/s12911-020-01325-5.
  • [30] M. Owais, M. Arsalan, T. Mahmood, Y. H. Kim, and K. R. Park, “Comprehensive computer-aided decision support framework to diagnose tuberculosis from chest X-Ray images: Data mining study,” JMIR Med. Informatics, vol. 8, no. 12, 2020, doi: 10.2196/21790.
  • [31] S. Rajaraman, S. Sornapudi, P. O. Alderson, L. R. Folio, and S. K. Antani, “Analyzing inter-reader variability affecting deep ensemble learning for COVID-19 detection in chest radiographs.,” PLoS One, vol. 15, no. 11, p. e0242301, 2020, [Online]. Available: https://pubmed.ncbi.nlm.nih.gov/33180877/
  • [32] X. Wang et al., “Potential of deep learning in assessing pneumoconiosis depicted on digital chest radiography,” Occup. Environ. Med., vol. 77, no. 9, pp. 597–602, 2020, doi: 10.1136/oemed-2019-106386.
  • [33] G. I. Okolo, S. Katsigiannis, and N. Ramzan, “IEViT: An enhanced vision transformer architecture for chest X-ray image classification,” Comput. Methods Programs Biomed., vol. 226, 2022, doi: 10.1016/j.cmpb.2022.107141.
  • [34] T. Chen et al., “A vision transformer machine learning model for COVID-19 diagnosis using chest X-ray images,” Healthc. Anal., vol. 5, 2024, doi: 10.1016/j.health.2024.100332.
  • [35] D. Kermany, K. Zhang, M. Goldbaum, and others, “Labeled optical coherence tomography (oct) and chest x-ray images for classification,” Mendeley data, vol. 2, no. 2, p. 651, 2018.
  • [36] D. S. Kermany et al., “Identifying Medical Diagnoses and Treatable Diseases by Image-Based Deep Learning,” Cell, vol. 172, no. 5, pp. 1122-1131.e9, 2018, doi: 10.1016/j.cell.2018.02.010.
  • [37] X. Glorot and Y. Bengio, “Understanding the difficulty of training deep feedforward neural networks,” J. Mach. Learn. Res., vol. 9, pp. 249–256, 2010.
  • [38] K. He, X. Zhang, S. Ren, and J. Sun, “Delving deep into rectifiers: Surpassing human-level performance on imagenet classification,” in Proceedings of the IEEE International Conference on Computer Vision, 2015, pp. 1026–1034. doi: 10.1109/ICCV.2015.123.
  • [39] C.-Y. Wang, I.-H. Yeh, and H.-Y. M. Liao, “YOLOv9: Learning What You Want to Learn Using Programmable Gradient Information,” 2024, [Online]. Available: http://arxiv.org/abs/2402.13616
  • [40] I. Loshchilov and F. Hutter, “SGDR: Stochastic gradient descent with warm restarts,” in 5th International Conference on Learning Representations, ICLR 2017, 2017. doi: 10.48550/arXiv.1608.03983.
  • [41] H. Sharma, J. S. Jain, P. Bansal, and S. Gupta, “Feature extraction and classification of chest X-ray images using CNN to detect pneumonia,” in Proceedings of the Confluence 2020 - 10th International Conference on Cloud Computing, Data Science and Engineering, 2020, pp. 227–231. doi: 10.1109/Confluence47617.2020.9057809.
  • [42] M. S. Al Reshan et al., “Detection of Pneumonia from Chest X-ray Images Utilizing MobileNet Model,” Healthcare, vol. 11, no. 11, p. 1561, May 2023, doi: 10.3390/healthcare11111561.
  • [43] X. Wang, Y. Peng, L. Lu, Z. Lu, M. Bagheri, and R. M. Summers, “ChestX-ray8: Hospital-scale chest X-ray database and benchmarks on weakly-supervised classification and localization of common thorax diseases,” Proc. - 30th IEEE Conf. Comput. Vis. Pattern Recognition, CVPR 2017, vol. 2017-Janua, pp. 3462–3471, 2017, doi: 10.1109/CVPR.2017.369.
  • [44] V. Chouhan et al., “A novel transfer learning based approach for pneumonia detection in chest X-ray images,” Appl. Sci., vol. 10, no. 2, 2020, doi: 10.3390/app10020559.
  • [45] M. Gazda, J. Plavka, J. Gazda, and P. Drotar, “Self-Supervised Deep Convolutional Neural Network for Chest X-Ray Classification,” IEEE Access, vol. 9, pp. 151972–151982, 2021, doi: 10.1109/ACCESS.2021.3125324.

The Role of Weight Initialization and Preprocessing Techniques in Analyzing Chest X-ray Images with Deep Neural Networks: A Comparative Study

Yıl 2026, Cilt: 17 Sayı: 1, - , 25.03.2026
https://doi.org/10.24012/dumf.1818553
https://izlik.org/JA89KB93KF

Öz

Accurate interpretation of chest X-rays (CXRs) using machine learning techniques plays a vital role in improving diagnostic practices within healthcare. This study advances CXR analysis by exploring various weight initialization and preprocessing methods with deep neural networks. Specifically, (i) an object detection model was trained to identify regions of interest (ROIs) within CXRs, enabling focused image analysis; (ii) weight initialization strategies, including partial fine-tuning, complete fine-tuning, and random initialization, were assessed using the EfficientNet-B1 model on both original and cropped images; and (iii) preprocessing techniques such as histogram equalization, bilateral filtering, Gaussian filtering, and Contrast Limited Adaptive Histogram Equalization (CLAHE) were applied to enhance image quality. Results show that ROI selection significantly improves model performance by focusing on relevant image areas (+4.8%). Pre-trained ImageNet weights with complete fine-tuning outperformed random initialization (+6.5%), demonstrating the advantages of transfer learning, particularly with limited datasets. Among preprocessing methods, the combination of CLAHE with Gaussian filtering achieved the highest validation accuracy (0.958), suggesting that advanced preprocessing methods substantially enhance model performance. These results underscore the importance of effective weight initialization and preprocessing in optimizing diagnostic accuracy and efficiency in CXR analysis.

Kaynakça

  • [1] WHO, “The top 10 causes of death.” Accessed: Aug. 03, 2024. [Online]. Available: https://www.who.int/news-room/fact-sheets/detail/the-top-10-causes-of-death
  • [2] WHO, “Chronic obstructive pulmonary disease (COPD).” Accessed: Aug. 03, 2024. [Online]. Available: https://www.who.int/news-room/fact-sheets/detail/chronic-obstructive-pulmonary-disease-(copd)
  • [3] WHO, “Lung cancer.” Accessed: Aug. 03, 2024. [Online]. Available: https://www.who.int/news-room/fact-sheets/detail/lung-cancer
  • [4] C. M. Jones et al., “Chest radiographs and machine learning – Past, present and future,” J. Med. Imaging Radiat. Oncol., vol. 65, no. 5, pp. 538–544, 2021, doi: 10.1111/1754-9485.13274.
  • [5] M. A. Thanoon, M. A. Zulkifley, M. A. A. Mohd Zainuri, and S. R. Abdani, “A Review of Deep Learning Techniques for Lung Cancer Screening and Diagnosis Based on CT Images,” Diagnostics, vol. 13, no. 16, 2023, doi: 10.3390/diagnostics13162617.
  • [6] C. Deniz, “Modern Computer Tomography with Artificial Intelligence and Deep Learning Applications,” Artif. Intell. Theory Appl., vol. 3, no. 2, pp. 123–136, 2023.
  • [7] R. Booij, R. P. J. Budde, M. L. Dijkshoorn, and M. van Straten, “Technological developments of X-ray computed tomography over half a century: User’s influence on protocol optimization,” Eur. J. Radiol., vol. 131, p. 109261, Oct. 2020, doi: 10.1016/j.ejrad.2020.109261.
  • [8] J. M. Jiang, L. Miao, X. Liang, Z. H. Liu, L. Zhang, and M. Li, “The Value of Deep Learning Image Reconstruction in Improving the Quality of Low-Dose Chest CT Images,” Diagnostics, vol. 12, no. 10, p. 2560, Oct. 2022, doi: 10.3390/diagnostics12102560.
  • [9] P. Celard, E. L. Iglesias, J. M. Sorribes-Fdez, R. Romero, A. S. Vieira, and L. Borrajo, “A survey on deep learning applied to medical images: from simple artificial neural networks to generative models,” Neural Comput. Appl., vol. 35, no. 3, pp. 2291–2323, 2023, doi: 10.1007/s00521-022-07953-4.
  • [10] X. Xie, J. Niu, X. Liu, Z. Chen, S. Tang, and S. Yu, “A survey on incorporating domain knowledge into deep learning for medical image analysis,” Med. Image Anal., vol. 69, 2021, doi: 10.1016/j.media.2021.101985.
  • [11] E. Çallı, E. Sogancioglu, B. van Ginneken, K. G. van Leeuwen, and K. Murphy, “Deep learning for chest X-ray analysis: A survey,” Med. Image Anal., vol. 72, 2021, doi: 10.1016/j.media.2021.102125.
  • [12] D. Meedeniya, H. Kumarasinghe, S. Kolonne, C. Fernando, I. D. la T. Díez, and G. Marques, “Chest X-ray analysis empowered with deep learning: A systematic review,” Appl. Soft Comput., vol. 126, 2022, doi: 10.1016/j.asoc.2022.109319.
  • [13] F. Shamshad et al., “Transformers in medical imaging: A survey,” in Medical Image Analysis, 2023. doi: 10.1016/j.media.2023.102802.
  • [14] A. Dosovitskiy et al., “an Image Is Worth 16X16 Words: Transformers for Image Recognition At Scale,” in ICLR 2021 - 9th International Conference on Learning Representations, 2021.
  • [15] X. Wu et al., “CheXNet: Combing Transformer and CNN for Thorax Disease Diagnosis from Chest X-ray Images,” in Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 2024, pp. 73–84. doi: 10.1007/978-981-99-8558-6_7.
  • [16] C. C. Ukwuoma et al., “A hybrid explainable ensemble transformer encoder for pneumonia identification from chest X-ray images,” J. Adv. Res., vol. 48, pp. 191–211, 2023, doi: 10.1016/j.jare.2022.08.021.
  • [17] O. F. Soylemez and B. Ergen, “Facial Landmark Based Region of Interest Localization for Deep Facial Expression Recognition,” Teh. Vjesn., vol. 29, no. 1, pp. 38–44, 2022, doi: 10.17559/TV-20200423145443.
  • [18] R. G, “A Study to Find Facts Behind Preprocessing on Deep Learning Algorithms,” J. Innov. Image Process., vol. 3, no. 1, pp. 66–74, 2021, doi: 10.36548/jiip.2021.1.006.
  • [19] M. V. Narkhede, P. P. Bartakke, and M. S. Sutaone, “A review on weight initialization strategies for neural networks,” Artif. Intell. Rev., vol. 55, no. 1, pp. 291–322, 2022, doi: 10.1007/s10462-021-10033-z.
  • [20] U. Avni, H. Greenspan, E. Konen, M. Sharon, and J. Goldberger, “X-ray categorization and retrieval on the organ and pathology level, using patch-based visual words,” IEEE Trans. Med. Imaging, vol. 30, no. 3, pp. 733–746, 2011, doi: 10.1109/TMI.2010.2095026.
  • [21] M. R. Zare, W. C. Seng, and A. Mueen, “Automatic classification of medical X-ray images,” Malaysian J. Comput. Sci., vol. 26, no. 1, pp. 9–22, 2013, doi: 10.22452/mjcs.vol26no1.2.
  • [22] N. R. S. Parveen and M. M. Sathik, “Detection of Pneumonia in chest X-ray images,” J. Xray. Sci. Technol., vol. 19, no. 4, pp. 423–428, 2011, doi: 10.3233/XST-2011-0304.
  • [23] L. Houam, A. Hafiane, A. Boukrouche, E. Lespessailles, and R. Jennane, “Texture characterization using local binary pattern and wavelets. Application to bone radiographs,” 2012 3rd Int. Conf. Image Process. Theory, Tools Appl. IPTA 2012, pp. 371–376, 2012, doi: 10.1109/IPTA.2012.6469546.
  • [24] V. Kumar and C. Science, “Neural Network Based Approach for Detection of Abnormal Regions of Lung Cancer in X-Ray Image,” vol. 1, no. 5, pp. 1–7, 2012.
  • [25] S. Jaeger et al., “Automatic tuberculosis screening using chest radiographs,” IEEE Trans. Med. Imaging, vol. 33, no. 2, pp. 233–245, Feb. 2014, doi: 10.1109/TMI.2013.2284099.
  • [26] H. Arimura, S. Katsuragawa, Q. Li, T. Ishida, and K. Doi, “Development of a computerized method for identifying the posteroanterior and lateral views of chest radiographs by use of a template matching technique,” Med. Phys., vol. 29, no. 7, pp. 1556–1561, 2002, doi: 10.1118/1.1487426.
  • [27] K. C. Santosh et al., “Rotation detection in chest radiographs based on generalized line histogram of rib-orientations,” Proc. - IEEE Symp. Comput. Med. Syst., pp. 138–142, 2014, doi: 10.1109/CBMS.2014.56.
  • [28] Ö. F. Söylemez, “Forward selection-based ensemble of deep neural networks for melanoma classification in dermoscopy images,” Int. J. Imaging Syst. Technol., vol. 33, no. 6, pp. 1929–1943, 2023, doi: 10.1002/ima.22912.
  • [29] Q. Wang et al., “Automated segmentation and diagnosis of pneumothorax on chest X-rays with fully convolutional multi-scale ScSE-DenseNet: a retrospective study,” BMC Med. Inform. Decis. Mak., vol. 20, 2020, doi: 10.1186/s12911-020-01325-5.
  • [30] M. Owais, M. Arsalan, T. Mahmood, Y. H. Kim, and K. R. Park, “Comprehensive computer-aided decision support framework to diagnose tuberculosis from chest X-Ray images: Data mining study,” JMIR Med. Informatics, vol. 8, no. 12, 2020, doi: 10.2196/21790.
  • [31] S. Rajaraman, S. Sornapudi, P. O. Alderson, L. R. Folio, and S. K. Antani, “Analyzing inter-reader variability affecting deep ensemble learning for COVID-19 detection in chest radiographs.,” PLoS One, vol. 15, no. 11, p. e0242301, 2020, [Online]. Available: https://pubmed.ncbi.nlm.nih.gov/33180877/
  • [32] X. Wang et al., “Potential of deep learning in assessing pneumoconiosis depicted on digital chest radiography,” Occup. Environ. Med., vol. 77, no. 9, pp. 597–602, 2020, doi: 10.1136/oemed-2019-106386.
  • [33] G. I. Okolo, S. Katsigiannis, and N. Ramzan, “IEViT: An enhanced vision transformer architecture for chest X-ray image classification,” Comput. Methods Programs Biomed., vol. 226, 2022, doi: 10.1016/j.cmpb.2022.107141.
  • [34] T. Chen et al., “A vision transformer machine learning model for COVID-19 diagnosis using chest X-ray images,” Healthc. Anal., vol. 5, 2024, doi: 10.1016/j.health.2024.100332.
  • [35] D. Kermany, K. Zhang, M. Goldbaum, and others, “Labeled optical coherence tomography (oct) and chest x-ray images for classification,” Mendeley data, vol. 2, no. 2, p. 651, 2018.
  • [36] D. S. Kermany et al., “Identifying Medical Diagnoses and Treatable Diseases by Image-Based Deep Learning,” Cell, vol. 172, no. 5, pp. 1122-1131.e9, 2018, doi: 10.1016/j.cell.2018.02.010.
  • [37] X. Glorot and Y. Bengio, “Understanding the difficulty of training deep feedforward neural networks,” J. Mach. Learn. Res., vol. 9, pp. 249–256, 2010.
  • [38] K. He, X. Zhang, S. Ren, and J. Sun, “Delving deep into rectifiers: Surpassing human-level performance on imagenet classification,” in Proceedings of the IEEE International Conference on Computer Vision, 2015, pp. 1026–1034. doi: 10.1109/ICCV.2015.123.
  • [39] C.-Y. Wang, I.-H. Yeh, and H.-Y. M. Liao, “YOLOv9: Learning What You Want to Learn Using Programmable Gradient Information,” 2024, [Online]. Available: http://arxiv.org/abs/2402.13616
  • [40] I. Loshchilov and F. Hutter, “SGDR: Stochastic gradient descent with warm restarts,” in 5th International Conference on Learning Representations, ICLR 2017, 2017. doi: 10.48550/arXiv.1608.03983.
  • [41] H. Sharma, J. S. Jain, P. Bansal, and S. Gupta, “Feature extraction and classification of chest X-ray images using CNN to detect pneumonia,” in Proceedings of the Confluence 2020 - 10th International Conference on Cloud Computing, Data Science and Engineering, 2020, pp. 227–231. doi: 10.1109/Confluence47617.2020.9057809.
  • [42] M. S. Al Reshan et al., “Detection of Pneumonia from Chest X-ray Images Utilizing MobileNet Model,” Healthcare, vol. 11, no. 11, p. 1561, May 2023, doi: 10.3390/healthcare11111561.
  • [43] X. Wang, Y. Peng, L. Lu, Z. Lu, M. Bagheri, and R. M. Summers, “ChestX-ray8: Hospital-scale chest X-ray database and benchmarks on weakly-supervised classification and localization of common thorax diseases,” Proc. - 30th IEEE Conf. Comput. Vis. Pattern Recognition, CVPR 2017, vol. 2017-Janua, pp. 3462–3471, 2017, doi: 10.1109/CVPR.2017.369.
  • [44] V. Chouhan et al., “A novel transfer learning based approach for pneumonia detection in chest X-ray images,” Appl. Sci., vol. 10, no. 2, 2020, doi: 10.3390/app10020559.
  • [45] M. Gazda, J. Plavka, J. Gazda, and P. Drotar, “Self-Supervised Deep Convolutional Neural Network for Chest X-Ray Classification,” IEEE Access, vol. 9, pp. 151972–151982, 2021, doi: 10.1109/ACCESS.2021.3125324.
Toplam 45 adet kaynakça vardır.

Ayrıntılar

Birincil Dil İngilizce
Konular Biyomedikal Görüntüleme
Bölüm Araştırma Makalesi
Yazarlar

Ömer Faruk Söylemez 0000-0002-4076-5230

Gönderilme Tarihi 6 Kasım 2025
Kabul Tarihi 23 Mart 2026
Yayımlanma Tarihi 25 Mart 2026
DOI https://doi.org/10.24012/dumf.1818553
IZ https://izlik.org/JA89KB93KF
Yayımlandığı Sayı Yıl 2026 Cilt: 17 Sayı: 1

Kaynak Göster

IEEE [1]Ö. F. Söylemez, “The Role of Weight Initialization and Preprocessing Techniques in Analyzing Chest X-ray Images with Deep Neural Networks: A Comparative Study”, DÜMF MD, c. 17, sy 1, Mar. 2026, doi: 10.24012/dumf.1818553.

Amaç ve Kapsam

Temel mühendislik alanında deneysel ve teorik çalışmalara yer veren Dicle Üniversitesi Mühendislik Dergisi, mühendisliğin popüler konuları ile ilgili makalelerin yayınlanmasına öncelik vermekte ve multidisipliner yöntem ve teknolojilere odaklanmayı hedeflemektedir.

Dicle Üniversitesi Mühendislik Dergisi, çok disiplinli bir dergidir ve temel mühendislik konularını içerir. Derginin amacı, bilim ve teknolojideki en popüler gelişmeleri araştırmacılara, mühendislere ve diğer ilgili kitlelere ulaştırmaktır.

Dicle Üniversitesi Mühendislik Fakültesi Dergisi (DUMF), mühendisliğin çeşitli alanlarında özgün araştırma makalelerinin yanı sıra derleme makalelerini de yayınlayan, hakemli, açık erişimli bir dergidir. Derginin kapsadığı konu alanları şunlardır:


-Elektrik ve Elektronik Mühendisliği
-Bilgisayar ve Yazılım Mühendisliği
-Biyomedikal Mühendisliği
-Makine Mühendisliği
-Cevher Hazırlama ve Maden Mühendisliği
-İnşaat Mühendisliği

DUMF Dergisi makale yükleme aşamasında gerekli olan genel yazım formatına sahiptir. Makalenizi yazarken yükleme öncesi bu formatı kullanma ihtiyacı duyabilirsiniz. Süreci kolaylaştırmak açısından indirmeye hazır word formatları sizler için sunulmuştur.

Türkçe Makale Şablonu (*.docx)
İngilizce Makale Şablonu (*.docx) (tavsiye edilen)

Makaleniz revizyon aşamasında iken makalenizin kabulü için gereklilikleri yerine getirip çalışmanızı doğru bir formatta sisteme yüklemelisiniz.


Kör Hakemlik:
Gönderdiğiniz makale hakemlere gönderileceğinden, metin içerisinde yazarlar hakkında tanımlayıcı herhangi bir bilgiye yer vermemeniz son derece önemlidir.
Lütfen potansiyel tanımlayıcı bilgiler için metnin gövdesini gözden geçirin ve tüm öz atıfların hem metin içi atıflar hem de referanslar için Yazar (Yıl) olarak belirtildiğinden emin olun.


Makale Yapısı
Giriş
Çalışmanın amaçlarını belirtin ve ayrıntılı bir literatür taramasından veya sonuçların bir özetinden kaçınarak çalışma ile ilgili yeterli bir literatür zemini sağlayınız.

Materyal ve Metod
Çalışmanın diğer bir araştırmacı tarafından izlenilmesine imkan vermek için yeterli ayrıntı sağlayınız. Çalışmada kullanılan yöntemler özetlenmeli ve bir referans ile belirtilmelidir. Doğrudan daha önce yayınlanmış bir yöntemden alıntı yapıyorsanız, tırnak işaretleri kullanınız ve ayrıca kaynak belirtiniz. Mevcut yöntemlerde yapılacak herhangi bir değişiklik de açıklanmalıdır.

Sonuçlar
Sonuçlar açık ve net olmalıdır.

Tartışma
Bu kısım çalışmanın önemini vurgulamalı, sonuçların tekrarını içermemelidir. Sonuçlar ve tartışma kısmı birlikte de verilebilir. Literatürdeki çalışmalara büyük oranda atıfta bulunup tartışmaktan kaçınılmalıdır.


Sonuç
Çalışmanın ana sonuçları, tek başına veya bir Tartışma veya Sonuçlar ve Tartışma bölümünün bir alt bölümünü oluşturabilecek kısa bir Sonuçlar bölümü olarak da sunulabilir.

Teşekkür
Bu bölümde, yazarın katkısı veya finansman bölümlerinin dışında herhangi bir desteğe yer verebilirsiniz. Bu kısım, idari ve teknik desteği veya ayni bağışları (örneğin deneyler için kullanılan malzemeler) içerebilir.

Referanslar
Kaynakların IEEE atıf stili ile hazırlanması tavsiye edilir. Formatın detayları şablon dosyasında verilmiştir.

ORCID zorunluluğu
Dergimize makale gönderen yazarların ORCID numaralarını eklemeleri gerekmektedir. ORCID, Open Researcher ve Contributor ID'nin kısaltmasıdır. ORCID, Uluslararası Standart Ad Tanımlayıcı (ISNI) olarak da bilinen ISO Standardı (ISO 27729) ile uyumlu 16 haneli numaralı bir URL'dir. Bireysel ORCID için http://orcid.org adresinden ücretsiz kayıt oluşturabilirsiniz.

Telif Hakkı

Kabul edilen makalelerin yazarları, makalenin telif hakkını DUMF'ye devretmeyi ve DUMF'nin stiline bağlı kalarak nihai hallerini elektronik ortamda göndermeyi kabul etmelidir.


Dergi İntihal Politikası
Dicle Üniversitesi Mühendislik Dergisi, makaleleri/derlemeleri intihal açısından değerlendirme politikasına sahiptir. Dergimize makale göndermeden önce uygun intihal yazılım programları (iThenticate, Turnitin vb.) ile makalenizdeki benzerlik durumu/oranını kontrol etmeniz önerilir. Bu doğrultuda dergimize gönderilen makaleler/derlemeler ön değerlendirmeye tabi tutulur; Turnitin yazılımı ile belirlenen benzerlik oranı %30'un altında olan yazılar Yayın Kurulumuz tarafından kabul edilecektir. Belirtilen oranın (%30) üzerinde olan makaleler/incelemeler yazar(lar)a iade edilir.

Gönderim Sırasında Gerekli Dosyalar:

1) İntihal Formu (Makaleler IThenticate, Turnitin vb. raporlarla birlikte değerlendirilecektir)

2) Hakem Öneri Formu

3) Telif Hakları Devri Formu

4) Ön Yazı



Revizyon  Sırasında Yazar tarafından yüklenmesi gerekli dosyalar:

1) Hakemlere Cevap Formu

2) Yapılan Değişiklikleri Gösteren Makale Dosyası

3) Makalenin Son Hali


Kabul sonrası yüklenmesi gereken dosyalar

1) Makalenin basıma hazır hali (yazar bilgileri eklenmiş versiyon)

İlgili makale çalışmanın yapıldığı kurum(lar)la ilgili uygun etik kurullar tarafından onaylandığına ve deneklerin çalışmayla ilgili bilgilendirilip onay verdiğine dair bir ifade içermelidir.

Etik Kurul izni gerektiren araştırmalar aşağıdaki gibidir:

-Katılımcılardan anket, görüşme, odak grup çalışması, gözlem, deney, görüşme teknikleri kullanılarak veri toplanmasını gerektiren nitel veya nicel yaklaşımlarla yürütülen her türlü araştırma.

-İnsan ve hayvanların (materyal/veri dahil) deneysel veya diğer bilimsel amaçlarla kullanılması

-İnsanlar üzerinde klinik araştırma

-Hayvanlar üzerinde araştırma

-Kişisel verilerin korunması kanununa uygun olarak geriye dönük çalışmalar

-Başkalarına ait ölçek, anket ve fotoğrafların kullanımı için izin alınması ve sahiplerinin belirtilmesi

-Kullanılan fikir ve eserlerde telif haklarına uyulduğunun belirtilmesi

Yayın Kurulunun 5 Ekim 2022 tarihli kararına göre talep edilen ücret miktarı revize edilmiştir.

Her makale gönderimi için "500TL" makale işletim ücreti talep edilmektedir. Bu ücret, Derginin profesyonel dizgisi için kullanılır. İlgili makale işletim ücreti kabul/red şartına bakılmaksızın makale gönderim sırasında talep edilmektedir.

Ücret Ödenecek Hesap Bilgileri:

Türk Lirası Hesabı (Banka/Şube): VakıfBank, Dicle Üniversitesi Bağlı Şubesi
Hesap Adı: Dicle Universitesi Muhendislik Fakultesi Dekanlığı
Hesap No: 00158007306834414
IBAN: TR300001500158007306834414

NOT: İlgili APC ödemesi makaleniz ön değerlendirmeden geçtikten sonra Dergi sekreteryasından alacağınız ön onay mesajı sonrası yapılmaktadır.
Lütfen Editör Kurulunun yapacağı ön değerlendirme sonrası Dergipark sistemi üzerinden alacağınız mesajı bekleyiniz.

Tel: +90-412 241 10 00 (3637)

E-posta: muhendislikdergisi@dicle.edu.tr

Baş Editör

Derin Öğrenme, Nöral Ağlar, Sınıflandırma algoritmaları, Evrimsel Hesaplama

Editör Kurulu

Bulanık Hesaplama, Elektrik Mühendisliği, Elektrik Enerjisi Taşıma, Şebeke ve Sistemleri, Elektrik Enerjisi Üretimi (Yenilenebilir Kaynaklar Dahil, Fotovoltaikler Hariç), Elektrik Makineleri ve Sürücüler, Fotovoltaik Güç Sistemleri, Güç Elektroniği, Yenilenebilir Enerji Sistemleri
Mühendislik, Maden Mühendisliği, Maden Tasarımı, İşletme ve Ekonomisi, Madencilik Yöntemleri ve Maden Sistem Analizi, Üretimde Optimizasyon

Visiting Professor at Oxford University, Dr. Idris Bedirhanoglu, who holds Bachelor and MSc degrees in Civil Engineering, got his Ph.D. from Istanbul Technical University with a co-advisor from Purdue University where he did a part of his PhD. He has been a Professor of Structural Engineering at Dicle University since March 2023. He worked as a Research Scientist at the Engineering Faculty of New York University Abu Dhabi in 2018-2019. He is the author/co-author of more than 40 journals (SCI or SCIE) or international conference papers and a co-author of four book chapters. He is on the Editorial Board of M. of J. of World Architecture and Engineering News (2014-2016), and a reviewer of more than 20 journals (SCI or SCIE). He is skilled in structural analysis, particularly in evaluating existing structures and retrofitting. As well, he has provided consultancy to more than 100 industrial projects. He has served as a member of the Technical Delegation to Evaluate Objections to Risky Building Detections (Ministry of Environment and Urbanization, General Directorates for Environment and Urbanization), vice chair of the Civil Engineering Department at Dicle University (2018-2019) and chair of the structural engineering laboratory (2010-2018). His main research interests include seismic design and evaluation of RC and historical structures, retrofitting buildings with FRP composites or textile fibers, recycling concrete, nondestructive testing, fuzzy logic, and finite element analysis.

İnşaat Mühendisliği, Betonarme Yapılar, Deprem Mühendisliği, Yapı Mühendisliği
Tesisat Teknolojisi, Yenilenebilir Enerji Sistemleri, Makine Mühendisliği, Enerji Üretimi, Dönüşüm ve Depolama (Kimyasal ve Elektiksel hariç)

Teknik Editör

Dicle Üniversitesi'nden Elektrik-Elektronik Mühendisliği alanında 2017 yılında  yüksek lisans derecesini, 2023 yılında doktora derecesini aldı. 2025 yılında Wake Forest University School of Medicine Center for Artificial Intelligence Research'de PostDoc derecesi aldı. Şuan Dicle Üniversitesi'nden Elektrik-Elektronik Mühendisliği bölümünde  Dr. Öğr. Üyesi olarak görev yapmaktadır. Araştırma ilgi alanları arasında Medikal Görüntü İşleme, Derin Öğrenme, Makine Öğrenmesi, Tıbbi Bilişim, Dijital Patoloji yer almaktadır.

Örüntü Tanıma, Makine Öğrenme, Derin Öğrenme, Biyomedikal Bilimler ve Teknolojiler, Elektrik Mühendisliği, Sinyal İşleme
DUJE tarafından yayınlanan tüm makaleler, Creative Commons Atıf 4.0 Uluslararası Lisansı ile lisanslanmıştır. Bu, orijinal eser ve kaynağın uygun şekilde belirtilmesi koşuluyla, herkesin eseri kopyalamasına, yeniden dağıtmasına, yeniden düzenlemesine, iletmesine ve uyarlamasına izin verir. 24456