Günümüzde yüz tanıma ve doğrulama sistemleri akıllı telefonlardan güvenlik sistemlerine, ödeme uygulamalarından uzaktan sağlık uygulamalarına kadar birçok alanda yüksek doğrulukla kullanılmaktadır. Yüz tanıma sistemlerini yanıltmanın en yaygın yolu kişinin sisteme kendi yüzü yerine maske, yazıcı çıktısı ya da monitör gibi araçlarla başka birinin yüzünü sunmasıdır. Son yıllarda birçok bilgisayarla görme uygulamasında olduğu gibi yüz tanıma sistemlerinde görüntü sahteciliğini önleme amacıyla da oldukça başarılı derin sinir ağı modelleri geliştirilmiştir. Bu modellerin farklı sahtecilik yöntemlerini hassas bir şekilde tespit edebilmesi ve girdi görüntülere uygulanacak saldırılara karşı dayanıklı olması beklenmektedir. Bu çalışmada güncel ve başarılı bir görüntü sahteciliği tespit modeli olan DGUA-FAS'ın çekişmeli saldırılara karşı dayanıklılığı araştırılmaktadır. Bu amaçla MIO algoritmasına dayalı kara kutu çekilmeli saldırı üretme yöntemi ile DGUA-FAS modelini yanıltmak amacıyla çekişmeli örnek görüntüler üretilmektedir. Deneysel çalışmalar, DGUA-FAS modelinin saldırı uygulanan tüm görüntüleri hatalı şekilde sınıflandırdığını göstermektedir. Elde edilen sonuçlar, yüz sahteciliği tespit modellerinin çekişmeli saldırılara karşı daha dayanıklı hale gelmesi gerektiğini göstermektedir.
FBA-2024-13536
Bu çalışma, Erciyes Üniversitesi Bilimsel Araştırma Projeleri (ERU-BAP) Koordinasyon Birimi tarafından FBA-2024-13536 numaralı proje kapsamında desteklenmektedir. Bu çalışmada yer alan tüm nümerik hesaplamalar TÜBİTAK ULAKBİM, Yüksek Başarım ve Grid Hesaplama Merkezi’nde (TRUBA kaynaklarında) gerçekleştirilmiştir.
Face recognition and verification systems are widely employed in various applications, from smartphones and security systems to payment and remote healthcare services, demonstrating high accuracy. However, a common method to spoof these systems involves presenting a different person's face using tools such as masks, printouts, or monitors instead of the actual user's face. In recent years, similar to advancements in other computer vision tasks, deep neural networks have been developed to effectively combat image forgery in face recognition systems. These models are expected to accurately detect diverse forgery techniques and be resilient to adversarial attacks on input images. This study investigates the robustness of DGUA-FAS, a state-of-the-art image forgery detection model, against adversarial attacks. Adversarial examples are generated using a black-box adversarial attack generation method based on MIO algorithm, to mislead the DGUA-FAS model. Experimental results demonstrate that the DGUA-FAS model misclassifies all attacked images. The findings highlight the necessity for developing face forgery detection models that are more resilient to adversarial attacks.
FBA-2024-13536
Birincil Dil | Türkçe |
---|---|
Konular | Bilgisayar Yazılımı |
Bölüm | Bilgisayar Mühendisliği / Computer Engineering |
Yazarlar | |
Proje Numarası | FBA-2024-13536 |
Yayımlanma Tarihi | 1 Aralık 2024 |
Gönderilme Tarihi | 14 Ağustos 2024 |
Kabul Tarihi | 10 Eylül 2024 |
Yayımlandığı Sayı | Yıl 2024 |