In this study, YOLOv4 with YOLOv3 and Faster R-CNN compared for object detection both under challenging weather conditions and in the dark. It is difficult to detect moving objects such as pedestrians, cars, buses, and motorcycles in bad weather conditions or at night, especially in adverse weather conditions such as rain, fog, and snow. The objective of this study is to assess the performance of these three algorithms in such circumstances, as none of them were designed to work in bad weather or at night. Tesla P4 GPUs with 12GB of RAM were used for this study, with algorithms trained using open-image datasets, where YOLOv4 had the highest performance at 40,000 iterations, 72% mAP, and 63% recall. While YOLOv3 has achieved maximum at 36000 iterations, 65.53% mAP, and 54% recall, Faster R-CNN has achieved maximum at 36,000 iterations, 51% mAP, and 49% recall. According to the results, YOLOv4 performed the best compared to YOLOv3 and Faster R-CNN.
Bu çalışmada, hem zorlu hava koşullarında hem de karanlıkta nesne tespiti için YOLOv4'ü YOLOv3 ve Faster R-CNN ile karşılaştırıldı. Yayalar, arabalar, otobüsler, motosikletler gibi hareketli nesneleri kötü hava koşullarında veya geceleri, özellikle yağmur, sis, kar gibi olumsuz hava koşullarında tespit etmek zordur. Bu çalışmanın amacı, hiçbiri kötü hava koşullarında veya gece çalışmak üzere tasarlanmamış olan bu üç algoritmanın bu gibi durumlarda performansını değerlendirmektir. YOLOv4'ün 40.000 yineleme, %72 mAP ve %63 geri çağırmada en yüksek performansa sahip olduğu açık-görüntü veri kümeleri kullanılarak eğitilen algoritmalarla bu çalışma için 12 GB RAM'e sahip Tesla P4 GPU'lar kullanıldı. YOLOv3 36.000 yineleme, %65.53 mAP ve %54 geri çağırma ile maksimuma ulaşırken, Faster R-CNN 36.000 yineleme, %51 mAP ve %49 geri çağırma ile maksimuma ulaştı. Sonuçlara göre YOLOv4, YOLOv3 ve Faster R-CNN'ye kıyasla en iyi performansı gösterdi.
Primary Language | English |
---|---|
Subjects | Engineering |
Journal Section | Articles |
Authors | |
Early Pub Date | January 30, 2022 |
Publication Date | January 31, 2022 |
Published in Issue | Year 2022 Issue: 33 |