TR
EN
Derin Öğrenme Tekniklerinde Duygu Analizinin Uygulanması
Öz
Duygu tanıma, sağlık, eğlence ve müşteri deneyimi gibi alanları kapsayan uygulamalarla insan-bilgisayar etkileşimini ilerletmede önemli bir teknoloji haline gelmiştir. Bu makale, yüz ifadelerinden duyguları tespit etmede beş derin öğrenme modelinin (YOLOv8m-cls, ResNet50, EfficientNetB5, MobileNetV2 ve DenseNet121) performansını değerlendirmektedir. Başlangıçta sekiz duygu kategorisi içeren AffectNet veri setinden yararlanarak, düşük veri kullanılabilirliği ve benzerlik nedeniyle üçünü hariç tuttuktan sonra beş duyguya odaklandık. İşlenen duygular arasında öfke, mutluluk, üzüntü, şaşkınlık ve korku yer almaktadır. Modeller, transfer öğrenmesi yoluyla ince ayar yapılarak YOLOv8m-cls'nin doğruluk, hız ve genellemeyi dengeleyerek en iyi performansı gösterdiği ve bu sayede gerçek zamanlı uygulamalar için uygun hale geldiği gösterilmiştir. ResNet50 ve EfficientNetB5 de iyi performans göstermiş, ResNet50 karmaşık yüz özelliklerini işlemede mükemmel performans gösterirken, EfficientNetB5 yüksek doğrulukla hesaplama verimliliği sunmuştur. Çalışma ayrıca, model performansını etkilemeye devam eden sınıf içi değişkenlik ve sınıflar arası benzerlik gibi zorluklara da dikkat çekmektedir. Bu bulgular, model mimarilerinin belirli uygulama gereksinimlerine göre seçilmesinin önemini vurgulamakta ve gelecekteki araştırmaların, duygu tanıma sistemlerini geliştirmek için çok modlu verilerin entegrasyonunu incelemesi gerektiğini göstermektedir.
Anahtar Kelimeler
Teşekkür
Makalemizi inceleyecek olan değerli Editör ve Hakem hocalarımıza şimdiden teşekkür ederiz.
Kaynakça
- [1] P. Ekman, “Facial expression and emotion,” Am. Psychol, vol. 48, no. 4, pp. 384–392, 1993. DOI:10.1037/0003-066X.48.4.384
- [2] M. Pantic and L. J. Rothkrantz, “An expert system for recognition of facial actions and their intensity,” AAAI/IAAI, pp. 1026–1033, 2000.
- [3] Z. Zeng, M. Pantic, G. I. Roisman and T. S. Huang, “A survey of affect recognition methods: Audio, visual and spontaneous expressions,” Proceedings of the 9th International Conference on Multimodal Interfaces, pp. 126–133, 2007.
- [4] J. Zhang, Z. Yin, P. Cheng and S. Nichele, “Emotion recognition using multi-modal data and machine learning techniques: A tutorial and review,” Inf Fusion, 2020. DOI:10.1016/j.inffus.2020.01.011
- [5] Y. Tian, T. Kanade and J. F. Cohn, “Facial expression recognition,” in Handbook of Face Recognition, S. Z. Li and A. K. Jain, Eds., Springer, 2011, pp. 487–519. DOI:10.1007/978-0-85729-932-1_19
- [6] P. Ekman and W. V. Friesen, Facial Action Coding System. Consulting Psychologists Press, 1978.
- [7] P. Lucey, J. F. Cohn, T. Kanade, J. Saragih, Z. Ambadar and I. Matthews, “The extended cohn-kanade dataset (CK+): A complete dataset for action unit and emotion-specified expression,” 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition – Workshops (CVPRW), pp. 94–101, 2010. DOI:10.1109/CVPRW.2010. 5543262
- [8] G. Tolias and O. Chum, “Asymmetric feature maps with application to sketch-based retrieval,” Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 3155–3164, 2017.
Ayrıntılar
Birincil Dil
İngilizce
Konular
Görüntü İşleme , Derin Öğrenme
Bölüm
Araştırma Makalesi
Yayımlanma Tarihi
30 Aralık 2025
Gönderilme Tarihi
3 Ağustos 2025
Kabul Tarihi
25 Kasım 2025
Yayımlandığı Sayı
Yıl 1970 Cilt: 16 Sayı: 4