Araştırma Makalesi
BibTex RIS Kaynak Göster

Flag-Net: Fraktallar ve Lacunarity Tabanlı Hibrit Derin Öğrenme Yaklaşımı ile Cilt Lezyonlarının Sınıflanfırılması

Yıl 2026, Cilt: 29 Sayı: 3 , 1 - 16 , 29.03.2026
https://doi.org/10.2339/politeknik.1734810
https://izlik.org/JA68LT66YF

Öz

Son yıllarda yapay zeka tabanlı yöntemler, özellikle de derin öğrenme, tıbbi görüntü analizinde önemli başarılar elde etmiştir. Bu çalışma, fraktal boyut ve lakunarite tabanlı doku analizi yoluyla yapısal hassasiyeti artırarak geleneksel CNN sınırlamalarının üstesinden gelmek için tasarlanmış hibrit bir derin öğrenme modeli olan FLAG-Net'i önermektedir. FLAG-Net, çok seviyeli evrişimsel özellikleri bir dikkat mekanizmasıyla zenginleştirmekte ve sınıflandırma performansını artırmak için morfolojik ve fraktal yapı haritalarını entegre etmektedir. Model, HAM10000 ve ISIC 2019 cilt lezyonu veri kümeleri üzerinde değerlendirilmiş ve sırasıyla %98,54 ve %98,72 doğruluk oranlarına ulaşarak InceptionV3, EfficientNet, VGG19 ve ResNet50 gibi iyi bilinen mimarilerden daha iyi performans göstermiştir. Temel bileşenlerin katkısını ayrı ayrı analiz etmek için ablasyon çalışmaları yapılmış ve dikkat mekanizmasının, çok düzeyli özellik füzyonunun ve fraktal/lacunarity haritalarının sınıflandırma sonuçlarını önemli ölçüde artırdığı doğrulanmıştır. Genel olarak, FLAG-Net yalnızca yüksek doğruluk elde etmekle kalmaz, aynı zamanda karmaşık doku modellerini etkili bir şekilde yakalayarak karar verme sürecini de güçlendirir. Bulgular, FLAG-Net'in tıbbi görüntü sınıflandırmasında güçlü klinik uygulanabilirliğe sahip güvenilir ve genelleştirilebilir bir model olarak potansiyelini vurgulamaktadır.

Kaynakça

  • [1] Hogue L., and Harvey V. M., “Basal cell carcinoma, squamous cell carcinoma, and cutaneous melanoma in skin of color patients”, Dermatologic Clinics, 37(4): 519–526, (2019).
  • [2] Gonzalez M. L., Young E. D., Bush J., McKenzie K., Hunt E., Tonkovic-Capin V., and Fraga G. R., “Histopathologic features of melanoma in difficult-to-diagnose lesions: a case-control study”, Journal of the American Academy of Dermatology, 77(3): 543–548, (2017).
  • [3] Liu Y., Pu H., and Sun D. W., “Efficient extraction of deep image features using convolutional neural network (CNN) for applications in detecting and analysing complex food matrices”, Trends in Food Science & Technology, 113: 193–204, (2021).
  • [4] Nasreen G., Haneef K., Tamoor M., and Irshad A., “A comparative study of state-of-the-art skin image segmentation techniques with CNN”, Multimedia Tools and Applications, 82(7): 10921–10942, (2023).
  • [5] Ferrah I., Benmahamed Y., Jahanger H. K., Teguar M., and Kherif O., “A new box-counting-based-image fractal dimension estimation method for discharges recognition on polluted insulator model”,IET Science, Measurement & Technology, 19(1): e70002, (2025).
  • [6] Das Bhattacharjee A., Banerjee N., Mitra D., Koley S., and Banerjee S., “U-Net Segmentation and Lacunarity for Enhanced Analysis of Hyperspectral Imagery”, Proceedings of the International Conference on Computing and Machine Learning, Singapore: Springer Nature, pp. 129–138, (2024).
  • [7] Ayata F., “Machine Learning-Based Approach for COVID-19 Detection and Outbreak Management: Blood Gas Analysis”,Eastern Journal of Science, 7(1): 1–10, (2024).
  • [8] Genç H., Seyyarer E., and Ayata F., “Deep Learning-Driven MRI analysis for accurate diagnosis and grading of lumbar spinal stenosis”, Measurement, 251: 117294, (2025).
  • [9] Jinnai S., Yamazaki N., Hirano Y., Sugawara Y., Ohe Y., and Hamamoto R., “The development of a skin cancer classification system for pigmented skin lesions using deep learning”, Biomolecules, 10(8): 1123, (2020).
  • [10] Tahir M., Naeem A., Malik H., Tanveer J., Naqvi R. A., and Lee S. W., “DSCC_Net: multi-classification deep learning models for diagnosing of skin cancer using dermoscopic images”. Cancers, 15(7): 2179, (2023).
  • [11] Bechelli S., and Delhommelle J., “Machine learning and deep learning algorithms for skin cancer classification from dermoscopic images”. Bioengineering, 9(3): 97, (2022).
  • [12] Jain S., Singhania U., Tripathy B., Nasr E. A., Aboudaif M. K., and Kamrani A. K., “Deep learning-based transfer learning for classification of skin cancer,” Sensors, 21(23): 8142, (2021).
  • [13] Bassel A., Abdulkareem A. B., Alyasseri Z. A. A., Sani N. S., and Mohammed H. J., “Automatic malignant and benign skin cancer classification using a hybrid deep learning approach,” Diagnostics, 12(10): 2472, (2022).
  • [14] Ali M. S., Miah M. S., Haque J., Rahman M. M., and Islam M. K., “An enhanced technique of skin cancer classification using deep convolutional neural network with transfer learning models,” Machine Learning with Applications, 5: 100036, (2021).
  • [15] Monika M. K., Vignesh N. A., Kumari C. U., Kumar M. N. V. S. S., and Lydia E. L., “Skin cancer detection and classification using machine learning”, Materials Today: Proceedings, 33: 4266–4270, (2020).
  • [16] Mijwil M. M., “Skin cancer disease images classification using deep learning solutions”, Multimedia Tools and Applications, 80(17): 26255–26271, (2021).
  • [17] Gouda W., Sama N. U., Al-Waakid G., Humayun M., and Jhanjhi N. Z., “Detection of skin cancer based on skin lesion images using deep learning”, Healthcare, 10(7): 1183, (2022).
  • [18] Chaturvedi S. S., Tembhurne J. V., and Diwan T., “A multi-class skin cancer classification using deep convolutional neural networks”, Multimedia Tools and Applications, 79(39): 28477–28498, (2020).
  • [19] Tembhurne J. V., Hebbar N., Patil H. Y., and Diwan T., “Skin cancer detection using ensemble of machine learning and deep learning techniques”, Multimedia Tools and Applications, 82(18): 27501–27524, (2023).
  • [20] Kousis I., Perikos I., Hatzilygeroudis I., and Virvou M., “Deep learning methods for accurate skin cancer recognition and mobile application”, Electronics, 11(9): 1294, (2022).
  • [21] Sethanan K., Pitakaso R., Srichok T., Khonjun S., Thannipat P., Wanram S., and Nanthasamroeng N., “Double AMIS-ensemble deep learning for skin cancer classification”, Expert Systems with Applications, 234: 121047, (2023).
  • [22] SM J., P M., Aravindan C., and Appavu R., “Classification of skin cancer from dermoscopic images using deep neural network architectures”, Multimedia Tools and Applications, 82(10): 15763–15778, (2023).
  • [23] Qasim Gilani S., Syed T., Umair M., and Marques O., “Skin cancer classification using deep spiking neural network”, Journal of Digital Imaging, 36(3): 1137–1147, (2023).
  • [24] Ghosh H., Rahat I. S., Mohanty S. N., Ravindra J. V. R., and Sobur A., “A study on the application of machine learning and deep learning techniques for skin cancer detection”, International Journal of Computer and Systems Engineering, 18(1): 51–59, (2024).
  • [25] Adla D., Reddy G. V. R., Nayak P., and Karuna G., “Deep learning-based computer aided diagnosis model for skin cancer detection and classification”, Distributed and Parallel Databases, 40(4): 717–736, (2022).
  • [26] Thakir M. M., “Quantifying Fractal-Based Features in Dermoscopic Images for Skin Cancer Characterization”, Proceedings of the ASU International Conference in Emerging Technologies for Sustainability and Intelligent Systems (ICETSIS), pp. 1–5, IEEE, (2024).
  • [27] Molina-Molina E. O., Solorza-Calderón S., and Álvarez-Borrego J., “Classification of dermoscopy skin lesion color-images using fractal-deep learning features”, Applied Sciences, 10(17): 5954, (2020).
  • [28] Moldovanu S., Damian Michis F. A., Biswas K. C., Culea-Florescu A., and Moraru L., “Skin lesion classification based on surface fractal dimensions and statistical color cluster features using an ensemble of machine learning techniques”, Cancers, 13(21): 5256, (2021).
  • [29] Jacob S., and Rosita J. D., “Fractal model for skin cancer diagnosis using probabilistic classifiers”, International Journal of Advances in Signal and Image Sciences, 7(1): 21–29, (2021).
  • [30] Çetiner H., and Metlek S., “A new CNN-based deep learning model approach for skin cancer detection and classification”, in Advances in Deep Generative Models for Medical Artificial Intelligence, Cham: Springer Nature Switzerland, pp. 177–199, (2023).
  • [31] Maniraj S. P. and Maran P. S. “A hybrid deep learning approach for skin cancer diagnosis using subband fusion of 3D wavelets”, The Journal of Supercomputing, 78(10): 12394–12409 (2022).
  • [32] Ozdemir B. and Pacal I. “An innovative deep learning framework for skin cancer detection employing ConvNeXtV2 and focal self-attention mechanisms”, Results in Engineering, 25: 103692, (2025).
  • [33] Ozdemir B. and Pacal I. “A robust deep learning framework for multiclass skin cancer classification”, Scientific Reports, 15(1): 4938, (2025).
  • [34] Rey-Barroso L., Vilaseca M., Royo S., Díaz-Doutón F., Lihacova I., Bondarenko A. and Burgos-Fernández F. J. “Training state-of-the-art deep learning algorithms with visible and extended near-infrared multispectral images of skin lesions for the improvement of skin cancer diagnosis”, Diagnostics, 15(3): 355, (2025).
  • [35] Ali S. N., Ahmed M. T., Jahan T., Paul J., Sani S. S., Noor N. and Hasan T. “A web-based mpox skin lesion detection system using state-of-the-art deep learning models considering racial diversity”, Biomedical Signal Processing and Control, 98: 106742, (2024).
  • [36] Shaik A., Dutta S. S., Sawant I. M., Kumar S., Balasundaram A. and De K. “An attention-based hybrid approach using CNN and BiLSTM for improved skin lesion classification”, Scientific Reports, 15(1): 15680, (2025).
  • [37] Wang C. and An W. “An improved 3D box-counting dimension computing technology for estimating the complexity of 3D models”, IEEE Access, 10: 119314–119320, (2022).
  • [38] Zou S., Wang X., Yuan T., Zeng K., Li G. and Xie X. “Moving object detection in shallow underwater using multi-scale spatial-temporal lacunarity”, Proceedings of the IEEE International Symposium on Circuits and Systems (ISCAS), pp. 1–5, (2024).
  • [39] Zhang Z. and Wang M. “Convolutional neural network with convolutional block attention module for finger vein recognition”, arXiv preprint, arXiv:2202.06673, (2022).
  • [40] Hatipoğlu A. and Altuntaş V. “DeepTFBS: Transkripsiyon faktörü bağlanma bölgeleri tahmini için derin öğrenme yöntemleri kullanan hibrit bir model”, Politeknik Dergisi, pp. 1–1, (2024).
  • [41] Jin X., Xie Y., Wei X. S., Zhao B. R., Chen Z. M. and Tan X. “Delving deep into spatial pooling for squeeze-and-excitation networks”, Pattern Recognition, 121: 108159, (2022).
  • [42] Roopa Devi E. M. and Suganthe R. C. “Enhanced transductive support vector machine classification with grey wolf optimizer cuckoo search optimization for intrusion detection system”, Concurrency and Computation: Practice and Experience, 32(4): e4999, (2020).
  • [43] Alzamel M., Alhejaili S., Alhumaidhi F., Alismail J., Almubarak L., Altammami H. and Lim Z. “Advanced skin cancer detection using deep learning”, Proceedings of the International Conference on Engineering Applications of Neural Networks, Cham: Springer Nature Switzerland, pp. 267–278, (2023).
  • [44] Franciotti R., Moharrami M., Quaranta A., Bizzoca M. E., Piattelli A., Aprile G. and Perrotti V. “Use of fractal analysis in dental images for osteoporosis detection: a systematic review and meta-analysis”, Osteoporosis International, 32(6): 1041–1052, (2021).
  • [45] Karperien A. L. and Jelinek H. F. “Box-counting fractal analysis: a primer for the clinician”, The Fractal Geometry of the Brain, Cham: Springer International Publishing, pp. 15–55, (2024).
  • [46] Song G., Qin C., Zhang K., Yao X., Bao F. and Zhang Y. “Adaptive interpolation scheme for image magnification based on local fractal analysis”, IEEE Access, 8: 34326–34338, (2020).
  • [47] Huang J., Zhou Y., Luo Y., Liu G., Guo H. and Yang G. “Representing topological self-similarity using fractal feature maps for accurate segmentation of tubular structures”, Proceedings of the European Conference on Computer Vision (ECCV), Cham: Springer Nature Switzerland, pp. 143–160, (2024).
  • [48] Cheng K., Shen Y. and Dinov I. D. “Applications of deep neural networks with fractal structure and attention blocks for 2D and 3D brain tumor segmentation”, Journal of Statistical Theory and Practice, 18(3): 31, (2024).
  • [49] Dong P. “Lacunarity analysis of raster datasets and 1D, 2D, and 3D point patterns”, Computers & Geosciences, 35(10): 2100–2110, (2009).
  • [50] Scott R., Kadum H., Salmaso G., Calaf M. and Cal R. B. “A lacunarity-based index for spatial heterogeneity”, Earth and Space Science, 9(8): e2021EA002180, (2022).
  • [51] Cui J., Liu C. L., Jennane R., Ai S., Dai K. and Tsai T. Y. “A highly generalized classifier for osteoporosis radiography based on multiscale fractal, lacunarity, and entropy distributions”, Frontiers in Bioengineering and Biotechnology, 11: 1054991, (2023).
  • [52] Ma F., Sun X., Zhang F., Zhou Y. and Li H. C. “What catch your attention in SAR images: saliency detection based on soft-superpixel lacunarity cue”, IEEE Transactions on Geoscience and Remote Sensing, 61: 1–17, (2022).
  • [53] Zhao Y., Chen J., Xu X., Lei J. and Zhou W. “SEV-Net: residual network embedded with attention mechanism for plant disease severity detection”, Concurrency and Computation: Practice and Experience, 33(10): e6161, (2021).
  • [54] Farag M. M., Fouad M. and Abdel-Hamid A. T. “Automatic severity classification of diabetic retinopathy based on DenseNet and convolutional block attention module”, IEEE Access, 10: 38299–38308, (2022).
  • [55] Zhou K., Zhang M., Wang H. and Tan J. “Ship detection in SAR images based on multi-scale feature extraction and adaptive feature fusion”, Remote Sensing, 14(3): 755, (2022).
  • [56] Li H., Ding M., Zhang R. and Xiu C. “Motor imagery EEG classification algorithm based on CNN-LSTM feature fusion network”, Biomedical Signal Processing and Control, 72: 103342, (2022).
  • [57] Zhu W., Dai Z., Gu H. and Zhu X. “Water extraction method based on multi-texture feature fusion of synthetic aperture radar images”, Sensors, 21(14): 4945, (2021).
  • [58] Karkavelraja J., Dharanyadevi P. and Zayaraz G. “Handwritten digit recognition using CNN with average pooling and global average pooling”, Proceedings of the 6th International Conference on Contemporary Computing and Informatics (IC3I), IEEE, Vol. 6, pp. 599–603, (2023).
  • [59] Srivastava N., Hinton G., Krizhevsky A., Sutskever I. and Salakhutdinov R. “Dropout: a simple way to prevent neural networks from overfitting”, The Journal of Machine Learning Research, 15(1): 1929–1958, (2014).
  • [60] Kılıç K., Özcan U., Kılıç K. and Doğru İ. “Using deep learning techniques for furniture image classification”, Politeknik Dergisi, 27(5): 1903–1911, (2024).
  • [61] Kassem M. A., Hosny K. M. and Fouad M. M. “Skin lesions classification into eight classes for ISIC using deep convolutional neural network and transfer learning”, IEEE Access, 8: 114822–114832, (2019).
  • [62] Tschandl P., Rosendahl C. and Kittler H. “The HAM10000 dataset, a large collection of multi-source dermatoscopic images of common pigmented skin lesions”, Scientific Data, 5: 180161, (2018).
  • [63] Ali K., Shaikh Z. A., Khan A. A. and Laghari A. A. “Multiclass skin cancer classification using EfficientNets – a first step towards preventing skin cancer”, Neuroscience Informatics, 2(4): 100034, (2022).
  • [64] Mridha K., Uddin M. M., Shin J., Khadka S. and Mridha M. F. “An interpretable skin cancer classification using optimized convolutional neural network for a smart healthcare system”, IEEE Access, (2023).
  • [65] Ibrahim S., Amin K. M. and Ibrahim M. “Enhanced skin cancer classification using pre-trained CNN models and transfer learning: a clinical decision support system for dermatologists”, International Journal of Computer Information, 10(3): 126–133, (2023).
  • [66] Saeed M., Naseer A., Masood H., Ur Rehman S. and Gruhn V. “The power of generative AI to augment for enhanced skin cancer classification: a deep learning approach”, IEEE Access, 11: 130330–130344, (2023).
  • [67] Nugroho E. S., Ardiyanto I. and Nugroho H. A. “Boosting the performance of pretrained CNN architecture on dermoscopic pigmented skin lesion classification”, Skin Research and Technology, 29(11): e13505, (2023).
  • [68] Reis H. C., Turk V., Khoshelham K. and Kaya S. “InSiNet: a deep convolutional approach to skin cancer detection and segmentation”, Medical & Biological Engineering & Computing, 60: 643–662, (2022).
  • [69] Houssein E. H., Abdelkareem D. A., Hu G., Hameed M. A., Ibrahim I. A. and Younan M. “An effective multiclass skin cancer classification approach based on deep convolutional neural network”, Cluster Computing, 27(9): 12799–12819, (2024).
  • [70] Arya M. S., Prabahavathy P. and Ahamed S. “Skin lesion classification and prediction by data augmentation in HAM10000 and ISIC 2019 dataset”, (2022).
  • [71] Pacal I., Ozdemir B., Zeynalov J., Gasimov H. and Pacal N. “A novel CNN-ViT-based deep learning model for early skin cancer diagnosis”, Biomedical Signal Processing and Control, 104: 107627, (2025).
  • [72] Shafiq M., Aggarwal K., Jayachandran J., Srinivasan G., Boddu R. and Alemayehu A. “RETRACTED: A novel skin lesion prediction and classification technique: ViT-GradCAM”, Skin Research and Technology, 30(9): e70040, (2024).
  • [73] Aruk I., Pacal I. and Toprak A. N. “A novel hybrid ConvNeXt-based approach for enhanced skin lesion classification”, Expert Systems with Applications, 127721, (2025).

FLAG-Net: Classification of Skin Lesions with a Hybrid Deep Learning Approach Based on Fractals and Lacunarity

Yıl 2026, Cilt: 29 Sayı: 3 , 1 - 16 , 29.03.2026
https://doi.org/10.2339/politeknik.1734810
https://izlik.org/JA68LT66YF

Öz

In recent years, artificial intelligence-based methods, particularly deep learning, have achieved significant success in medical image analysis. This study proposes FLAG-Net, a hybrid deep learning model designed to overcome traditional CNN limitations by enhancing structural sensitivity through fractal dimension and lacunarity-based texture analysis. FLAG-Net enriches multilevel convolutional features with an attention mechanism and integrates morphological and fractal structure maps to improve classification performance. The model was evaluated on the HAM10000 and ISIC 2019 skin lesion datasets, achieving accuracies of 98.54% and 98.72%, respectively—outperforming well-known architectures such as InceptionV3, EfficientNet, VGG19, and ResNet50. Ablation studies were performed to analyze the contribution of key components individually, confirming that the attention mechanism, multilevel feature fusion, and fractal/lacunarity maps significantly enhance classification results. Overall, FLAG-Net not only achieves high accuracy but also strengthens decision-making by effectively capturing complex texture patterns. The findings highlight FLAG-Net’s potential as a reliable and generalizable model with strong clinical applicability in medical image classification.

Kaynakça

  • [1] Hogue L., and Harvey V. M., “Basal cell carcinoma, squamous cell carcinoma, and cutaneous melanoma in skin of color patients”, Dermatologic Clinics, 37(4): 519–526, (2019).
  • [2] Gonzalez M. L., Young E. D., Bush J., McKenzie K., Hunt E., Tonkovic-Capin V., and Fraga G. R., “Histopathologic features of melanoma in difficult-to-diagnose lesions: a case-control study”, Journal of the American Academy of Dermatology, 77(3): 543–548, (2017).
  • [3] Liu Y., Pu H., and Sun D. W., “Efficient extraction of deep image features using convolutional neural network (CNN) for applications in detecting and analysing complex food matrices”, Trends in Food Science & Technology, 113: 193–204, (2021).
  • [4] Nasreen G., Haneef K., Tamoor M., and Irshad A., “A comparative study of state-of-the-art skin image segmentation techniques with CNN”, Multimedia Tools and Applications, 82(7): 10921–10942, (2023).
  • [5] Ferrah I., Benmahamed Y., Jahanger H. K., Teguar M., and Kherif O., “A new box-counting-based-image fractal dimension estimation method for discharges recognition on polluted insulator model”,IET Science, Measurement & Technology, 19(1): e70002, (2025).
  • [6] Das Bhattacharjee A., Banerjee N., Mitra D., Koley S., and Banerjee S., “U-Net Segmentation and Lacunarity for Enhanced Analysis of Hyperspectral Imagery”, Proceedings of the International Conference on Computing and Machine Learning, Singapore: Springer Nature, pp. 129–138, (2024).
  • [7] Ayata F., “Machine Learning-Based Approach for COVID-19 Detection and Outbreak Management: Blood Gas Analysis”,Eastern Journal of Science, 7(1): 1–10, (2024).
  • [8] Genç H., Seyyarer E., and Ayata F., “Deep Learning-Driven MRI analysis for accurate diagnosis and grading of lumbar spinal stenosis”, Measurement, 251: 117294, (2025).
  • [9] Jinnai S., Yamazaki N., Hirano Y., Sugawara Y., Ohe Y., and Hamamoto R., “The development of a skin cancer classification system for pigmented skin lesions using deep learning”, Biomolecules, 10(8): 1123, (2020).
  • [10] Tahir M., Naeem A., Malik H., Tanveer J., Naqvi R. A., and Lee S. W., “DSCC_Net: multi-classification deep learning models for diagnosing of skin cancer using dermoscopic images”. Cancers, 15(7): 2179, (2023).
  • [11] Bechelli S., and Delhommelle J., “Machine learning and deep learning algorithms for skin cancer classification from dermoscopic images”. Bioengineering, 9(3): 97, (2022).
  • [12] Jain S., Singhania U., Tripathy B., Nasr E. A., Aboudaif M. K., and Kamrani A. K., “Deep learning-based transfer learning for classification of skin cancer,” Sensors, 21(23): 8142, (2021).
  • [13] Bassel A., Abdulkareem A. B., Alyasseri Z. A. A., Sani N. S., and Mohammed H. J., “Automatic malignant and benign skin cancer classification using a hybrid deep learning approach,” Diagnostics, 12(10): 2472, (2022).
  • [14] Ali M. S., Miah M. S., Haque J., Rahman M. M., and Islam M. K., “An enhanced technique of skin cancer classification using deep convolutional neural network with transfer learning models,” Machine Learning with Applications, 5: 100036, (2021).
  • [15] Monika M. K., Vignesh N. A., Kumari C. U., Kumar M. N. V. S. S., and Lydia E. L., “Skin cancer detection and classification using machine learning”, Materials Today: Proceedings, 33: 4266–4270, (2020).
  • [16] Mijwil M. M., “Skin cancer disease images classification using deep learning solutions”, Multimedia Tools and Applications, 80(17): 26255–26271, (2021).
  • [17] Gouda W., Sama N. U., Al-Waakid G., Humayun M., and Jhanjhi N. Z., “Detection of skin cancer based on skin lesion images using deep learning”, Healthcare, 10(7): 1183, (2022).
  • [18] Chaturvedi S. S., Tembhurne J. V., and Diwan T., “A multi-class skin cancer classification using deep convolutional neural networks”, Multimedia Tools and Applications, 79(39): 28477–28498, (2020).
  • [19] Tembhurne J. V., Hebbar N., Patil H. Y., and Diwan T., “Skin cancer detection using ensemble of machine learning and deep learning techniques”, Multimedia Tools and Applications, 82(18): 27501–27524, (2023).
  • [20] Kousis I., Perikos I., Hatzilygeroudis I., and Virvou M., “Deep learning methods for accurate skin cancer recognition and mobile application”, Electronics, 11(9): 1294, (2022).
  • [21] Sethanan K., Pitakaso R., Srichok T., Khonjun S., Thannipat P., Wanram S., and Nanthasamroeng N., “Double AMIS-ensemble deep learning for skin cancer classification”, Expert Systems with Applications, 234: 121047, (2023).
  • [22] SM J., P M., Aravindan C., and Appavu R., “Classification of skin cancer from dermoscopic images using deep neural network architectures”, Multimedia Tools and Applications, 82(10): 15763–15778, (2023).
  • [23] Qasim Gilani S., Syed T., Umair M., and Marques O., “Skin cancer classification using deep spiking neural network”, Journal of Digital Imaging, 36(3): 1137–1147, (2023).
  • [24] Ghosh H., Rahat I. S., Mohanty S. N., Ravindra J. V. R., and Sobur A., “A study on the application of machine learning and deep learning techniques for skin cancer detection”, International Journal of Computer and Systems Engineering, 18(1): 51–59, (2024).
  • [25] Adla D., Reddy G. V. R., Nayak P., and Karuna G., “Deep learning-based computer aided diagnosis model for skin cancer detection and classification”, Distributed and Parallel Databases, 40(4): 717–736, (2022).
  • [26] Thakir M. M., “Quantifying Fractal-Based Features in Dermoscopic Images for Skin Cancer Characterization”, Proceedings of the ASU International Conference in Emerging Technologies for Sustainability and Intelligent Systems (ICETSIS), pp. 1–5, IEEE, (2024).
  • [27] Molina-Molina E. O., Solorza-Calderón S., and Álvarez-Borrego J., “Classification of dermoscopy skin lesion color-images using fractal-deep learning features”, Applied Sciences, 10(17): 5954, (2020).
  • [28] Moldovanu S., Damian Michis F. A., Biswas K. C., Culea-Florescu A., and Moraru L., “Skin lesion classification based on surface fractal dimensions and statistical color cluster features using an ensemble of machine learning techniques”, Cancers, 13(21): 5256, (2021).
  • [29] Jacob S., and Rosita J. D., “Fractal model for skin cancer diagnosis using probabilistic classifiers”, International Journal of Advances in Signal and Image Sciences, 7(1): 21–29, (2021).
  • [30] Çetiner H., and Metlek S., “A new CNN-based deep learning model approach for skin cancer detection and classification”, in Advances in Deep Generative Models for Medical Artificial Intelligence, Cham: Springer Nature Switzerland, pp. 177–199, (2023).
  • [31] Maniraj S. P. and Maran P. S. “A hybrid deep learning approach for skin cancer diagnosis using subband fusion of 3D wavelets”, The Journal of Supercomputing, 78(10): 12394–12409 (2022).
  • [32] Ozdemir B. and Pacal I. “An innovative deep learning framework for skin cancer detection employing ConvNeXtV2 and focal self-attention mechanisms”, Results in Engineering, 25: 103692, (2025).
  • [33] Ozdemir B. and Pacal I. “A robust deep learning framework for multiclass skin cancer classification”, Scientific Reports, 15(1): 4938, (2025).
  • [34] Rey-Barroso L., Vilaseca M., Royo S., Díaz-Doutón F., Lihacova I., Bondarenko A. and Burgos-Fernández F. J. “Training state-of-the-art deep learning algorithms with visible and extended near-infrared multispectral images of skin lesions for the improvement of skin cancer diagnosis”, Diagnostics, 15(3): 355, (2025).
  • [35] Ali S. N., Ahmed M. T., Jahan T., Paul J., Sani S. S., Noor N. and Hasan T. “A web-based mpox skin lesion detection system using state-of-the-art deep learning models considering racial diversity”, Biomedical Signal Processing and Control, 98: 106742, (2024).
  • [36] Shaik A., Dutta S. S., Sawant I. M., Kumar S., Balasundaram A. and De K. “An attention-based hybrid approach using CNN and BiLSTM for improved skin lesion classification”, Scientific Reports, 15(1): 15680, (2025).
  • [37] Wang C. and An W. “An improved 3D box-counting dimension computing technology for estimating the complexity of 3D models”, IEEE Access, 10: 119314–119320, (2022).
  • [38] Zou S., Wang X., Yuan T., Zeng K., Li G. and Xie X. “Moving object detection in shallow underwater using multi-scale spatial-temporal lacunarity”, Proceedings of the IEEE International Symposium on Circuits and Systems (ISCAS), pp. 1–5, (2024).
  • [39] Zhang Z. and Wang M. “Convolutional neural network with convolutional block attention module for finger vein recognition”, arXiv preprint, arXiv:2202.06673, (2022).
  • [40] Hatipoğlu A. and Altuntaş V. “DeepTFBS: Transkripsiyon faktörü bağlanma bölgeleri tahmini için derin öğrenme yöntemleri kullanan hibrit bir model”, Politeknik Dergisi, pp. 1–1, (2024).
  • [41] Jin X., Xie Y., Wei X. S., Zhao B. R., Chen Z. M. and Tan X. “Delving deep into spatial pooling for squeeze-and-excitation networks”, Pattern Recognition, 121: 108159, (2022).
  • [42] Roopa Devi E. M. and Suganthe R. C. “Enhanced transductive support vector machine classification with grey wolf optimizer cuckoo search optimization for intrusion detection system”, Concurrency and Computation: Practice and Experience, 32(4): e4999, (2020).
  • [43] Alzamel M., Alhejaili S., Alhumaidhi F., Alismail J., Almubarak L., Altammami H. and Lim Z. “Advanced skin cancer detection using deep learning”, Proceedings of the International Conference on Engineering Applications of Neural Networks, Cham: Springer Nature Switzerland, pp. 267–278, (2023).
  • [44] Franciotti R., Moharrami M., Quaranta A., Bizzoca M. E., Piattelli A., Aprile G. and Perrotti V. “Use of fractal analysis in dental images for osteoporosis detection: a systematic review and meta-analysis”, Osteoporosis International, 32(6): 1041–1052, (2021).
  • [45] Karperien A. L. and Jelinek H. F. “Box-counting fractal analysis: a primer for the clinician”, The Fractal Geometry of the Brain, Cham: Springer International Publishing, pp. 15–55, (2024).
  • [46] Song G., Qin C., Zhang K., Yao X., Bao F. and Zhang Y. “Adaptive interpolation scheme for image magnification based on local fractal analysis”, IEEE Access, 8: 34326–34338, (2020).
  • [47] Huang J., Zhou Y., Luo Y., Liu G., Guo H. and Yang G. “Representing topological self-similarity using fractal feature maps for accurate segmentation of tubular structures”, Proceedings of the European Conference on Computer Vision (ECCV), Cham: Springer Nature Switzerland, pp. 143–160, (2024).
  • [48] Cheng K., Shen Y. and Dinov I. D. “Applications of deep neural networks with fractal structure and attention blocks for 2D and 3D brain tumor segmentation”, Journal of Statistical Theory and Practice, 18(3): 31, (2024).
  • [49] Dong P. “Lacunarity analysis of raster datasets and 1D, 2D, and 3D point patterns”, Computers & Geosciences, 35(10): 2100–2110, (2009).
  • [50] Scott R., Kadum H., Salmaso G., Calaf M. and Cal R. B. “A lacunarity-based index for spatial heterogeneity”, Earth and Space Science, 9(8): e2021EA002180, (2022).
  • [51] Cui J., Liu C. L., Jennane R., Ai S., Dai K. and Tsai T. Y. “A highly generalized classifier for osteoporosis radiography based on multiscale fractal, lacunarity, and entropy distributions”, Frontiers in Bioengineering and Biotechnology, 11: 1054991, (2023).
  • [52] Ma F., Sun X., Zhang F., Zhou Y. and Li H. C. “What catch your attention in SAR images: saliency detection based on soft-superpixel lacunarity cue”, IEEE Transactions on Geoscience and Remote Sensing, 61: 1–17, (2022).
  • [53] Zhao Y., Chen J., Xu X., Lei J. and Zhou W. “SEV-Net: residual network embedded with attention mechanism for plant disease severity detection”, Concurrency and Computation: Practice and Experience, 33(10): e6161, (2021).
  • [54] Farag M. M., Fouad M. and Abdel-Hamid A. T. “Automatic severity classification of diabetic retinopathy based on DenseNet and convolutional block attention module”, IEEE Access, 10: 38299–38308, (2022).
  • [55] Zhou K., Zhang M., Wang H. and Tan J. “Ship detection in SAR images based on multi-scale feature extraction and adaptive feature fusion”, Remote Sensing, 14(3): 755, (2022).
  • [56] Li H., Ding M., Zhang R. and Xiu C. “Motor imagery EEG classification algorithm based on CNN-LSTM feature fusion network”, Biomedical Signal Processing and Control, 72: 103342, (2022).
  • [57] Zhu W., Dai Z., Gu H. and Zhu X. “Water extraction method based on multi-texture feature fusion of synthetic aperture radar images”, Sensors, 21(14): 4945, (2021).
  • [58] Karkavelraja J., Dharanyadevi P. and Zayaraz G. “Handwritten digit recognition using CNN with average pooling and global average pooling”, Proceedings of the 6th International Conference on Contemporary Computing and Informatics (IC3I), IEEE, Vol. 6, pp. 599–603, (2023).
  • [59] Srivastava N., Hinton G., Krizhevsky A., Sutskever I. and Salakhutdinov R. “Dropout: a simple way to prevent neural networks from overfitting”, The Journal of Machine Learning Research, 15(1): 1929–1958, (2014).
  • [60] Kılıç K., Özcan U., Kılıç K. and Doğru İ. “Using deep learning techniques for furniture image classification”, Politeknik Dergisi, 27(5): 1903–1911, (2024).
  • [61] Kassem M. A., Hosny K. M. and Fouad M. M. “Skin lesions classification into eight classes for ISIC using deep convolutional neural network and transfer learning”, IEEE Access, 8: 114822–114832, (2019).
  • [62] Tschandl P., Rosendahl C. and Kittler H. “The HAM10000 dataset, a large collection of multi-source dermatoscopic images of common pigmented skin lesions”, Scientific Data, 5: 180161, (2018).
  • [63] Ali K., Shaikh Z. A., Khan A. A. and Laghari A. A. “Multiclass skin cancer classification using EfficientNets – a first step towards preventing skin cancer”, Neuroscience Informatics, 2(4): 100034, (2022).
  • [64] Mridha K., Uddin M. M., Shin J., Khadka S. and Mridha M. F. “An interpretable skin cancer classification using optimized convolutional neural network for a smart healthcare system”, IEEE Access, (2023).
  • [65] Ibrahim S., Amin K. M. and Ibrahim M. “Enhanced skin cancer classification using pre-trained CNN models and transfer learning: a clinical decision support system for dermatologists”, International Journal of Computer Information, 10(3): 126–133, (2023).
  • [66] Saeed M., Naseer A., Masood H., Ur Rehman S. and Gruhn V. “The power of generative AI to augment for enhanced skin cancer classification: a deep learning approach”, IEEE Access, 11: 130330–130344, (2023).
  • [67] Nugroho E. S., Ardiyanto I. and Nugroho H. A. “Boosting the performance of pretrained CNN architecture on dermoscopic pigmented skin lesion classification”, Skin Research and Technology, 29(11): e13505, (2023).
  • [68] Reis H. C., Turk V., Khoshelham K. and Kaya S. “InSiNet: a deep convolutional approach to skin cancer detection and segmentation”, Medical & Biological Engineering & Computing, 60: 643–662, (2022).
  • [69] Houssein E. H., Abdelkareem D. A., Hu G., Hameed M. A., Ibrahim I. A. and Younan M. “An effective multiclass skin cancer classification approach based on deep convolutional neural network”, Cluster Computing, 27(9): 12799–12819, (2024).
  • [70] Arya M. S., Prabahavathy P. and Ahamed S. “Skin lesion classification and prediction by data augmentation in HAM10000 and ISIC 2019 dataset”, (2022).
  • [71] Pacal I., Ozdemir B., Zeynalov J., Gasimov H. and Pacal N. “A novel CNN-ViT-based deep learning model for early skin cancer diagnosis”, Biomedical Signal Processing and Control, 104: 107627, (2025).
  • [72] Shafiq M., Aggarwal K., Jayachandran J., Srinivasan G., Boddu R. and Alemayehu A. “RETRACTED: A novel skin lesion prediction and classification technique: ViT-GradCAM”, Skin Research and Technology, 30(9): e70040, (2024).
  • [73] Aruk I., Pacal I. and Toprak A. N. “A novel hybrid ConvNeXt-based approach for enhanced skin lesion classification”, Expert Systems with Applications, 127721, (2025).
Toplam 73 adet kaynakça vardır.

Ayrıntılar

Birincil Dil İngilizce
Konular Derin Öğrenme
Bölüm Araştırma Makalesi
Yazarlar

Yasin Özkan 0000-0002-2029-0856

Gönderilme Tarihi 5 Temmuz 2025
Kabul Tarihi 30 Eylül 2025
Erken Görünüm Tarihi 14 Ekim 2025
Yayımlanma Tarihi 29 Mart 2026
DOI https://doi.org/10.2339/politeknik.1734810
IZ https://izlik.org/JA68LT66YF
Yayımlandığı Sayı Yıl 2026 Cilt: 29 Sayı: 3

Kaynak Göster

APA Özkan, Y. (2026). FLAG-Net: Classification of Skin Lesions with a Hybrid Deep Learning Approach Based on Fractals and Lacunarity. Politeknik Dergisi, 29(3), 1-16. https://doi.org/10.2339/politeknik.1734810
AMA 1.Özkan Y. FLAG-Net: Classification of Skin Lesions with a Hybrid Deep Learning Approach Based on Fractals and Lacunarity. Politeknik Dergisi. 2026;29(3):1-16. doi:10.2339/politeknik.1734810
Chicago Özkan, Yasin. 2026. “FLAG-Net: Classification of Skin Lesions with a Hybrid Deep Learning Approach Based on Fractals and Lacunarity”. Politeknik Dergisi 29 (3): 1-16. https://doi.org/10.2339/politeknik.1734810.
EndNote Özkan Y (01 Mart 2026) FLAG-Net: Classification of Skin Lesions with a Hybrid Deep Learning Approach Based on Fractals and Lacunarity. Politeknik Dergisi 29 3 1–16.
IEEE [1]Y. Özkan, “FLAG-Net: Classification of Skin Lesions with a Hybrid Deep Learning Approach Based on Fractals and Lacunarity”, Politeknik Dergisi, c. 29, sy 3, ss. 1–16, Mar. 2026, doi: 10.2339/politeknik.1734810.
ISNAD Özkan, Yasin. “FLAG-Net: Classification of Skin Lesions with a Hybrid Deep Learning Approach Based on Fractals and Lacunarity”. Politeknik Dergisi 29/3 (01 Mart 2026): 1-16. https://doi.org/10.2339/politeknik.1734810.
JAMA 1.Özkan Y. FLAG-Net: Classification of Skin Lesions with a Hybrid Deep Learning Approach Based on Fractals and Lacunarity. Politeknik Dergisi. 2026;29:1–16.
MLA Özkan, Yasin. “FLAG-Net: Classification of Skin Lesions with a Hybrid Deep Learning Approach Based on Fractals and Lacunarity”. Politeknik Dergisi, c. 29, sy 3, Mart 2026, ss. 1-16, doi:10.2339/politeknik.1734810.
Vancouver 1.Yasin Özkan. FLAG-Net: Classification of Skin Lesions with a Hybrid Deep Learning Approach Based on Fractals and Lacunarity. Politeknik Dergisi. 01 Mart 2026;29(3):1-16. doi:10.2339/politeknik.1734810

Amaç ve Kapsam

 Temel mühendislik alanlarındaki hem deneysel hem de kuramsal çalışmaların yer aldığı dergimiz, mühendisliğin hızla gelişen alanlarına ilişkin makalelerin yayınına öncelik tanır ve disiplinlerarası yöntem ve teknolojiler üzerine yoğunlaşmayı,mühendislik bilimlerindeki en güncel bilimsel ve teknolojik gelişmeleri araştırmacılara, mühendislere ve ilgili kitlelere ulaştırmayı hedefler. Dergiye gönderilen bilimsel çalışmaların yayımlanmış veya sözlü veya poster sunum olarak başka yerde yayın için değerlendirme aşamasında bulunmaması gereklidir.


“Politeknik Dergisi" temel mühendislik konularını kapsayan bir dergidir. Dergi ulusal ve uluslararası düzeyde bilim, teknoloji ve mühendislik alanlarında orijinal bir araştırmayı bulgu ve sonuçlarıyla yansıtan ve bilime katkısı olan araştırma makalelerini veya yeterli sayıda bilimsel makaleyi tarayıp, konuyu bugünkü bilgi ve teknoloji düzeyinde özetleyen, değerlendirme yapan ve bulguları karşılaştırarak yorumlayan tarama makalelerini kabul etmektedir.

Dergimize makale gönderen ve/veya dergimizde hakemlik yapan /yapacak olan tüm kullanıcıların kurumsal e-posta hesapları ile sisteme kayıt olmaları gerekmektedir (yahoo.com, hotmail.com, gmail.com vb. uzantılı e-posta hesapları kullanılmamalıdır).

Dergimize ait herhangi bir ŞABLON formatı  bulunmamaktadır. İlk gönderi için makalelerin aşağıdaki kurallara göre hazırlanması gerekmektedir. 

Gazi Üniversitesi Politeknik Dergisi, Fen ve Mühendislik alanlarında çalışan bilim insanları arasındaki bilimsel iletişimi oluşturmak amacıyla, bilimsel özgün makaleleri Türkçe veya İngilizce olarak kabul etmektedir.

Araştırma Makalesi: Orijinal bir araştırmayı bulgu ve sonuçlarıyla yansıtan çalışmalar,

Tarama Makalesi: Yeterli sayıda bilimsel makaleyi tarayıp, konuyu günümüzün bilgi ve teknoloji düzeyinde özetleyen, değerlendirme yapan ve bu bulguları karşılaştırarak yorumlayan yazılar,

Teknik Not: Yapılan bir araştırmanın önemli bulgularını açıklayan yeni bir yöntem veya teknik tanımlayan yazılar. 

Bütün yazıların Telif Hakkı Devir Formu, makalenin bütün yazarları tarafından doldurulup editörlüğe iletilmelidir. Telif Hakkı Devir Formu göndermeyen yazarların yayınları işleme konulmaz. Yayınlanmasına karar verilen makaleler üzerine yazarlar tarafından sonradan hiçbir eklenti yapılamaz.

Her makale en az iki hakeme gönderilerek şekil ve içerik bakımından incelenir. Dergide yayınlanabilecek nitelikteki olduğu belirlenen makalelerin dizgisi yapılarak yayına hazır hale getirilir.

SUNUŞ

İlk gönderi esnasında, makalenin yazar(lar)ı tarafından benzerlik taraması yapılarak benzerlik oranını gösteren raporun makale ile birlikte yüklenmesi gerekmektedir. Detaylı bilgi için tıklayınız.

Her makalede yapılan çalışmanın özetlendiği bir Özet Sayfası bulunmalıdır. (Bu sayfa makalenin ilk sayfası olacak şekilde makalenizi tek dosya halinde gönderiniz). Özet sayfasına ait şablon dosyaya ulaşmak için tıklayınız.

1. METİN : Times New Roman yazı karakterinde ve 12 pt olacak şekilde yazılmalı, kaynaklar ve şekiller dahil tarama yazıları dışında 20 sayfayı geçmemelidir. Yazarlar makalelerinin ne türde bir yazı olduğunu belirtmelidirler.

2. BAŞLIK : Eserin başlığı, ilk harfleri büyük olacak şekilde Türkçe ve İngilizce olarak yazılmalı, başlık metne uygun, kısa ve açık olmalıdır.

Metin içerisindeki 1. derece başlıkların tamamı büyük harfle, 2. derece başlıkların tüm kelimelerinin ilk harfleri büyük harfle ve 3. ve daha alt başlıklar için başlığın yalnızca ilk kelimesi büyük harfle olacak şekilde yazılmalıdır (Metin içerisinde kullanılan başlıkların ve alt başlıkların tümünün İngilizceleri parantez içerisinde belirtilmelidir. Yazım dili İngilizce olan makalelerde, parantez içerisinde herhangi bir şey belirtilmemelidir. Tüm metin İngilizce olmalıdır)

3. ÖZET : 200 kelimeyi geçmeyecek şekilde Türkçe ve İngilizce yazılmalıdır. İngilizce özetin başına eserin başlığı da ingilizce olarak yazılmalıdır.

4. ANAHTAR KELİMELER : En az 3 en fazla 5 adet Türkçe/ İngilizce olarak verilmelidir.

5. METİN : Genel olarak giriş, yöntem, bulgular, sonuç ve tartışmaya ilişkin kısımları kapsar.

6. KAYNAKLAR : Metinde parantez içerisindeki [1], [2] vb. rakamlarla numaralandırılmalı ve metin sonunda da eser içinde veriliş sırasına göre yazılmalıdır.

Kaynak bir makale ise: Yazarın soyadı adının baş harfi, tırnak içerisinde makalenin tam başlığı, derginin adı (varsa uluslararası kısaltmaları), cilt no: makalenin başlangıç ve bitiş sayfa no, (yıl)

Örnek: Sözen A., Özbaş E., Menlik T., Çakır M. T., Gürü M. and Boran K., ''Improving the thermal performance of diffusion absorption refrigeration system with alumina nanofluids'', International Journal of Refrigeration, 44: 73-80, (2014)

Kaynak bir kitap ise: Yazarın soyadı adının başharfi, tırnak içerisinde kitabın adı, cilt no, varsa editörü, yayınevinin adı, yayın no, yayınlandığı yer, (yıl).

Kaynak kitaptan bir bölüm ise: Bölüm yazarının soyadı adının başharfi, tırnak içerisinde bölümün adı, bölümün alındığı kitabın adı, yayınevinin adı, yayınlandığı yer, (yıl).

Kaynak basılmış tez ise: Yazarın soyadı adının baş harfi, tırnak içerisinde tezin adı, cinsi (yüksek lisans, doktora), sunulduğu üniversite ve enstitüsü, (yıl).

Kaynak kongreden alınmış tebliğ ise: Yazarın soyadı adının baş harfi, tırnak içerisinde tebliğin adı, kongrenin adı, yapıldığı yer, tebliğin başlangıç ve bitiş sayfa no, (yıl).

Kaynak bir standart ise: Standardın numarası, tırnak içerisinde standardın adı, (yıl).

7. ÇİZELGE VE ŞEKİLLER: Çizelge içermeyen bütün görüntüler (fotoğraf, çizim, diyagram, grafik, harita vs.) şekil olarak isimlendirilmelidir. Her bir çizelge ve şekil, metin içinde gireceği yere yerleştirilmelidir. Bütün şekiller metin içinde ardışık olarak numaralandırılmalıdır (Metin içerisinde kullanılan Çizelge ve Şekillerin tümünün ingilizceleri parantez içerisinde belirtilmelidir. Yazım dili İngilizce olan makalelerde, parantez içerisinde herhangi bir şey belirtilmemelidir. Tüm metin İngilizce olmaldır).

8. FORMÜLLER VE BİRİMLER: Metin içerisindeki tüm formüller equation formatında yazılmalıdır. Formüllere (1), (2) şeklinde sıra numarası verilmelidir. Tüm birimler SI birim sisteminde olmalıdır.

9. SİMGELER VE KISALTMALAR : Metin sonunda kaynaklardan önce verilebilir.

10. TEŞEKKÜR : Eğer kişi veya kurumlara teşekkür yapılacaksa bu kısımda yazılmalı ve kaynaklardan önce verilmelidir.

11. ETİK BEYANI : Dergimizde yayımlanacak makalelerde etik kurul izini ve/veya yasal/özel izin alınmasının gerekip gerekmediği belirtilmiş olmalıdır. Eğer bu izinlerin alınması gerekli ise, izinin hangi kurumdan, hangi tarihte ve hangi karar veya sayı numarası ile alındığı açıkça sunulmalıdır. Ayrıca çalışma insan ve hayvan deneklerinin kullanımını gerektiriyor ise çalışmanın uluslararası deklarasyon, kılavuz vb. uygun gerçekleştirildiği beyan edilmelidir. İzin alınmasının gerekmediği durumlar için TEŞEKKÜR bölümünden sonra aşağıdaki metin eklenmelidir.  

        Türkçe dilindeki makaleler için:
        ETİK STANDARTLARIN BEYANI
        Bu makalenin yazar(lar)ı çalışmalarında kullandıkları materyal ve yöntemlerin etik kurul izni ve/veya yasal-özel bir izin gerektirmediğini beyan ederler.


        İngilizce dilindeki makaleler için:
        DECLARATION OF ETHICAL STANDARDS
        The author(s) of this article declare that the materials and methods used in this study do not require ethical committee permission and/or legal-special permission.

12. YAZAR KATKILARININ BEYANI: Bu bölümde makalede adı geçen her bir araştırmacının makaleye olan katkısı belirtilmelidir.

13. ÇIKAR ÇATIŞMASININ BEYANI: Makale yazarları arasındaki çıkar çatışması durumu belirtilmelidir. Herhangi bir çıkar çatışması yoksa "Bu çalışmada herhangi bir çıkar çatışması yoktur" ibaresi yazılmalıdır.

YAYIN ETİĞİ BİLDİRİMİ
Yayın etiği, en iyi uygulama kılavuzlarını sağlamak ve bu nedenle derginin editörleri, yazarları ve hakemler tarafından uyulması açısından çok önemlidir. Politeknik Dergisi, COPE'nin Davranış Kuralları ve Dergi Editörleri İçin En İyi Uygulama Kılavuz İlkeleri (https://publicationethics.org/resources/code-conduct) tarafından açıklanan ilkelere uygundur ve sadece şeffaflık ilkeleri değil, aynı zamanda en iyi bilimsel uygulama Yayın Etik Kurulu (COPE) tarafından belirlenen kurallara uygun olan makaleleri yayınlar.

Baş Editör ve Alan Editörlerinin Görevleri
Tarafsızlık
Derginin baş editörü ve bölüm editörleri, dergiye gönderilen makalelerin hangisinin yayınlanması gerektiğine karar vermekten sorumludur. Bu süreçte yazarlar ırk, etnik köken, cinsiyet, din ve vatandaşlıklarına göre editörler tarafından ayırt edilmez. Editörlerin yayınlanacak bir makaleyi kabul etme, gözden geçirme veya reddetme kararları, yalnızca makalenin önemi, özgünlüğü ve açıklığına ve ayrıca makalede yapılan çalışmanın derginin kapsamına uygunluğuna dayanmaktadır.
Gizlilik
Baş editör ve bölüm editörleri, gönderilen bir makale hakkında herhangi bir bilgiyi başkasıyla paylaşmamalıdır. Ayrıca ilgili yazar, hakemler / muhtemel hakemler ve yayıncı personel tarafından açıklanmamalıdır. Editörler, yazarlar tarafından sunulan tüm materyallerin inceleme sürecinde gizli kalmasını sağlayacaktır.
Çıkar Çatışması ve Açıklama
Gönderilmiş bir makalede açıklanan yayınlanmamış materyaller, yazarın yazılı izni olmadan hiçbir hakemin kendi çalışmalarında kullanılmamalıdır. Hakem değerlendirmesi sürecinden elde edilen münhasır bilgi veya görüşler gizli tutulmalı ve kişisel çıkarlar için kullanılmamalıdır. Hakemler, rekabetçi, işbirlikçi veya makalelere bağlı yazarlar, şirketler veya kurumlardan herhangi biriyle olan diğer ilişkilerden / bağlantılardan kaynaklanan çıkar çatışmalarına sahip oldukları yazıları dikkate almamalıdır.
Akran inceleme süreci
Baş editör / bölüm editörleri, dergi sistemine gönderilen her bir yazı için çift kör bir akran inceleme sürecinin etkin bir şekilde yapılmasını sağlamalıdır.
Etik olmayan davranışların yönetimi
Editörler, yayıncılarla birlikte, gönderilen bir makale veya yayınlanan bir makale hakkında etik şikâyetler sunulduğunda rasyonel olarak duyarlı önlemler almalıdır.

Yazar(lar)ın Görevleri
Makalenin Yazarı
Tasarım, yorumlama ve uygulama dâhil olmak üzere bildirilen çalışmaya önemli bir katkı sağlayanlara daraltılmalıdır. Gönderilen yazıya önemli katkılarda bulunan tüm yazarlar ortak yazar olarak listelenmelidir.

Özgünlük ve intihal
Gönderdikleri makalenin içeriğinden, dilinden ve özgünlüğünden yazarlar sorumludur. Yazarlar, orijinal eserlerini tamamen oluşturduğunu ve yazarlar çalışmayı ve / veya diğer yazarların sözlerini kullanmışlarsa, bunun uygun bir şekilde alıntılandığını veya alıntı yapıldığını temin etmelidir. İntihal, bir başkasının makalesini yazarın kendi makalesi olarak göstermek, bir başkasının makalesinin önemli kısımlarını (atıfta bulunmadan) kopyalamak veya başka bir deyişle, başkaları tarafından yapılan araştırmaların sonuçlarını almaktan farklı biçimlerdedir. Tüm formlarındaki intihal, etik olmayan yayıncılık davranışını içerir ve kabul edilemez. Hakemlere bir makale gönderilmeden önce, intihal araştırması için iThenticate aracılığıyla benzerlik açısından kontrol edilir.

Fon kaynaklarının tanınması
Makalede bildirilen araştırma için tüm finansman kaynakları, referanslar öncesinde makalenin sonunda ayrıntılı olarak belirtilmelidir.

İfşa ve çıkar çatışmaları
Tüm yazarlar makalelerinde, makalelerinin bulgularını veya yorumunu etkilemek için yorumlanabilecek herhangi bir maddi veya diğer maddi çıkar çatışmasını açıklamalıdır. Proje için tüm finansal destek kaynakları da açıklanmalıdır. Açıklanan potansiyel çıkar çatışmaları örnekleri arasında istihdam, danışmanlıklar, hisse senedi mülkiyeti, onur, ücretli uzman tanıklığı, patent başvuruları / kayıtları ve hibeler veya diğer fonlar yer almaktadır. Potansiyel çıkar çatışmaları mümkün olan en erken aşamada bildirilmelidir.

Raporlama standartları
Makalenin yazarları, yapılan çalışmanın doğru bir açıklamasını ve önemi ile ilgili objektif bir tartışma sunmalıdır. Temel veriler, metinde doğru olarak verilmelidir. Bir makale, diğer araştırmacıların çalışmayı tekrar etmelerine izin vermek için yeterli ayrıntıyı ve referansları içermelidir. Zor veya bilerek kesin olmayan ifadeler etik olmayan davranışlar oluşturur ve kabul edilemez. İnceleme ve profesyonel yayın makaleleri de kesin olmalı, özgün ve objektif olmalı ve editoryal düşünce çalışmaları açıkça ifade edilmelidir.

Veri erişimi ve saklama
Yazarlardan editoryal inceleme süreci için bir makaleyle bağlantılı ham verileri sağlamaları istenebilir ve herhangi bir durumda, yayınlandıktan sonra belirli bir süre için bu verileri saklamaları gerekebilir.

Çoklu, gereksiz veya eşzamanlı yayın
Gönderilen makaleler başka herhangi bir dergiye gönderilmemiş olmalıdır. Aynı makaleyi aynı anda birden fazla dergiye göndermek etik olmayan yayıncılık davranışını içerir. Yazarlar ayrıca makalenin daha önce başka bir yerde yayınlanmadığından da emin olmalıdır.

Yayınlanmış çalışmalarda ana hatalar
Bir yazar yayınlanmış eserinde önemli bir hata veya yanlışlıkla karşılaştığında, dergi editörünü veya yayıncısına bu durumu derhal bildirmek ve makaleyi geri çekmek veya düzeltmek için editörle işbirliği yapmak yükümlülüğündedir.

Hakemlerin Görevleri
Hakemler, makale le ilgili görüşlerini tamamlayarak yorumlarını kendisine tanımlanan zaman içerisinde göndermelidir. Eğer makale, hakemin ilgi alanına uygun değilse, makale editöre geri gönderilmelidir, böylece diğer hakemler zaman kaybetmeden atanabilirler.

Katkı
Hakemler, hakemli bir dergi olan derginin kalitesine katkıda bulunan ana üyelerdir. Alınan makaleyi incelemesi için kalifiye olmayan hakemler derhal editöre bildirmeli ve bu makaleyi incelemeyi reddetmelidir.

Gizlilik
İnceleme için gönderilen yazılar gizli belgeler olarak değerlendirilmelidir. Editör tarafından yetkilendirilmedikçe başkalarıyla gösterilmemeli veya tartışılmamalıdır.

Nesnellik standartları
Yorumlar objektif olarak gerçekleştirilmelidir. Yazarın kişisel eleştirisi uygun değildir. Hakemler açıkça destekleyici argümanlarla görüşlerini ifade etmelidir.

Kaynakların tanınması
Hakemler, yazarlar tarafından alıntılanmayan yayınlanmış çalışmaları tanımlamalıdır. Bir gözlem, türetme veya argümanın daha önce bildirildiği herhangi bir ifadeye ilgili atıfta bulunulmalıdır. Bir gözden geçiren aynı zamanda editörün dikkatini, ele alınan yazı ile kişisel bilgileri olan yayınlanmış diğer herhangi bir makale arasında hayati bir benzerlik ya da çakışma olduğuna dikkat etmelidir.

İfşa ve çıkar çatışması
Hakemler, rekabetçi, işbirlikçi veya yazılarla bağlantılı yazarlar, şirketler veya kurumlarla yapılan diğer ilişkilerden / bağlantılardan kaynaklanan çıkar çatışmalarına sahip oldukları makaleleri dikkate almamalıdır.

DERGİ POLİTİKASI
Makale Değerlendirme Süreci
Hakem Davetinin Geçerlilik Süresi : 30 gün
Hakem Daveti İçin Verilen Ekstra Süre : 15 gün
Hakemin Makaleyi Değerlendirme Süresi : 21 gün
Yazarın Düzeltmelerini Gerçekleştirmesi İçin Verilen Süre : 30 gün
Makale Değerlendirmesi İçin Hakeme Verilen Ekstra Süre : 7 gün

Ücret Politikası
Dergimize gönderilen makalelerin değerlendirilmesi/basılması gibi süreçlerde yazarlardan herhangi bir ücret talep edilmemektedir. 

Makale Geri Çekme Süreci
Yayımlanmış bir makalenin geri çekilmesi işlemi ilgili makalenin tüm yazarlarının ortak talebine istinaden yapılmaktadır. Geri çekilen makaleye ait bilgiler yazar(lar)ın editörlüğümüze başvurduğu tarihten sonra yayımlanacak ilk sayımızda GERİ ÇEKME(RETRACTION) başlığı altında bildirilir. 

Politeknik Dergisi makale gönderimi veya basım aşamasında herhangi bir ücret talep etmemektedir.

 
TARANDIĞIMIZ DİZİNLER (ABSTRACTING / INDEXING)
181341319013191 13189 13187 13188 18016 

download Bu eser Creative Commons Atıf-AynıLisanslaPaylaş 4.0 Uluslararası ile lisanslanmıştır.