Derin Öğrenme ile Resim ve Videolarda Nesnelerin Tanınması ve Takibi
Yıl 2019,
, 571 - 581, 27.09.2019
Resul Daş
,
Berna Polat
Gürkan Tuna
Öz
Görüntü işleme yöntemleri kullanılarak durağan görüntülerin analizleri gerçekleştirilebilir ve söz konusu görüntülerden anlamlı bilgiler çıkarılabilir. Tespit ve tanıma sonrasında takip edilecek olan nesnenin değişken bir ortam içinde bulunması zorlaştırıcı unsurlardan birisidir. Bunun gibi zorlaştırıcı unsurlarla başa çıkabilmek ve nesne takibini başarıyla gerçekleştirebilmek için farklı yöntemler geliştirilmiştir. Askeri uygulamalarda yaygın olarak kullanılan elektro-optik algılayıcı sistemleri hareketli ve sabit hedeflerin belirlenmesini sağlamaktadır. Son yıllarda yapay zekâ tabanlı bileşenlerle güçlendirilen bu sistemler hem daha hızlı hem de daha kesin hedef tespiti yapmayı sağlamaktadır. Öte yandan, derin öğrenme algoritmaları yapay zekâ alanında bir devrim yaratmıştır. Derin öğrenme algoritmalarının görüntü işlemede kullanılması oldukça başarılı sonuçlar alınmasını ve karmaşık görüntü işleme problemlerinin kolaylıkla çözüme kavuşturulabilmesini sağlamaktadır. Bu çalışmada derin öğrenme ile hareketli nesne tanıma ve takibi için Google’ın açık kaynak kodlu makine öğrenmesi kütüphanesi olan TensorFlow kullanılmıştır. Nesne takibi için Region Based Convolutional Networks kütüphanesinden Faster R-CNN modeli ele alınmıştır. Bu kütüphaneler ile durağan görüntüler, video görüntüleri ve webcam görüntüleri üzerinde nesne tanıma işlemi gerçekleştirilmiş ve incelenen kütüphanelerin güçlü ve zayıf yönleri ortaya konmuştur.
Kaynakça
- [1] P. Viola and M. Jones, “Rapid object detection using a boosted cascade of simple features,” in Computer Vision and Pattern Recognition, 2001. CVPR 2001. Proceedings of the 2001 IEEE Computer Society Conference on, vol. 1. IEEE, 2001, pp. I–I.
- [2] E. Özbaysar and E. Borandağ, “Vehicle plate tracking system,” in 2018 26th Signal Processing and Communications Applications Conference (SIU). IEEE, 2018, pp. 1–4.
- [3] W. S. McCulloch and W. Pitts, “A logical calculus of the ideas immanent in nervous activity,” The bulletin of mathematical biophysics, vol. 5, no. 4, pp. 115–133, 1943.
- [4] S. S. Haykin, S. S. Haykin, S. S. Haykin, and S. S. Haykin, Neural networks and learning machines.Pearson Upper Saddle River, 2009, vol. 3.
- [5] A. G. Ivakhnenko and V. G. Lapa, Cybernetic predicting devices. CCM Information Corporation, 1965.
- [6] K. Fukushima, “Neocognitron: A hierarchical neural network capable of visual pattern recognition.” Neural networks, vol. 1, no. 2, pp. 119–130, 1988.
- [7] J. Weng, P. Cohen, and M. Herniou, “Camera calibration with distortion models and accuracy evaluation,” IEEE Transactions on Pattern Analysis & Machine Intelligence, no. 10, pp. 965–980, 1992.
- [8] C. Cortes and V. Vapnik, “Support-vector networks,” Machine learning, vol. 20, no. 3, pp. 273–297, 1995.
- [9] S. Hochreiter and J. Schmidhuber, “Long short-term memory,” Neural computation, vol. 9, no. 8, pp. 1735–1780, 1997.
- [10] G. E. Hinton, N. Srivastava, A. Krizhevsky, I. Sutskever, and R. R. Salakhutdinov, “Improving neural networks by preventing co-adaptation of feature detectors. july 3, 2012,” URL http://arxiv.org/abs/1207.0580, 2016.
- [11] S. Lohr, “The age of big data,” New York Times, vol. 11, no. 2012, 2012.
- [12] Y. Taigman, M. Yang, M. Ranzato, and L. Wolf, “Deepface: Closing the gap to human-level performance in face verification,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2014, pp. 1701–1708. [13] K. Lee and M. Son, “Deepspotcloud: leveraging cross-region gpu spot instances for deep learning,” in Cloud Computing (CLOUD), 2017 IEEE 10th International Conference on. IEEE, 2017, pp. 98–105.
- [14] S. Tokui, K. Oono, S. Hido, and J. Clayton, “Chainer: a next-generation open source framework for deep learning,” in Proceedings of workshop on machine learning systems (LearningSys) in the twenty-ninth annual conference on neural information processing systems (NIPS), vol. 5, 2015, pp. 1–6.
- [15] Ö. Şahin, A. Kurtoğlu, and G. Ercan, “Computer science terminology extraction from parallel corpora,” in 2018 26th Signal Processing and Communications Applications Conference (SIU). IEEE, 2018, pp.1–4.
- [16] W. Luo, J. Xing, A. Milan, X. Zhang, W. Liu, X. Zhao, and T.-K. Kim, “Multiple object tracking: A literature review,” arXiv preprint arXiv:1409.7618, 2014.
- [17] Y. Chen, X. Yang, B. Zhong, S. Pan, D. Chen, and H. Zhang, “Cnntracker: Online discriminative object tracking via deep convolutional neural network,” Applied Soft Computing, vol. 38, pp. 1088–1098, 2016.
- [18] A. Hardas, D. Bade, and V. Wali, “Moving object detection using background subtraction shadow removal and post processing,” in International Journal of Computer Applications (0975–8887) International Conference on Computer Technology (ICCT 2015), 2015.
- [19] S. H. Shaikh, K. Saeed, and N. Chaki, “Moving object detection approaches, challenges and object tracking,” in Moving Object Detection Using Background Subtraction. Springer, 2014, pp. 5–14.
- [20] A. R. Aldhaheri and E. A. Edirisinghe, “Detection and classification of a moving object in a video stream,” in Proc. of the Intl. Conf. on Advances in Computing and Information Technology-ACIT, 2014.
- [21] A. Yilmaz, O. Javed, and M. Shah, “Object tracking: A survey,” Acm computing surveys (CSUR), vol. 38, no. 4, p. 13, 2006.
- [22] O. D. Trier, A. K. Jain, T. Taxt et al., “Feature extraction methods for character recognition-a survey,” Pattern recognition, vol. 29, no. 4, pp. 641–662, 1996.
- [23] S. Avidan, “Support vector tracking,” IEEE transactions on pattern analysis and machine intelligence, vol. 26, no. 8, pp. 1064–1072, 2004.
- [24] L. Fan, Z. Wang, B. Cail, C. Tao, Z. Zhang, Y. Wang, S. Li, F. Huang, S. Fu, and F. Zhang, “A survey on multiple object tracking algorithm,” in Information and Automation (ICIA), 2016 IEEE International Conference on. IEEE, 2016, pp. 1855–1862.
- [25] J. Redmon, S. Divvala, R. Girshick, and A. Farhadi, “You only look once: Unified, real-time object detection,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, pp. 779–788.