Çekişmeli Üretken Ağ (GAN), üretken bir derin öğrenme modeli olarak bilinir. Üretici (generator) ve ayırt edici (discriminator) yapılarından oluşmaktadır. Sentetik veri olarak bilinen GAN modeli çıktılarının oldukça başarılı örnekleri bilinmektedir. Farklı amaçlar ile kullanılabilen sentetik verilerin, başarılı bir şekilde üretilmesi durumunda insan gözü ile tespit edilebilmesi oldukça güç bir problemdir. Bu çalışmada farklı ve popüler Evrişimli Sinir Ağı (CNN) modellerinin öznitelik çıkarıcı olarak kullanıldığı, sentetik ve gerçek görüntüleri ayırt eden bu problem için Laplace filtresi ve benzemezlik tabanlı yeni bir CNN katmanı önerilmiştir. GAN modelinin farklı modeller üzerindeki başarı sonuçları tespit edilmiştir. Böylece, gözle ayırt edilemeyen sentetik verilerin tespiti için CNN modellerinden yararlanmanın uygun bir alternatif olduğu anlaşılmıştır. En iyi başarı %98.75 doğruluk oranıyla DenseNet ile elde edilmiştir.
Sentetik Görüntü Çekişmeli Üretken Ağlar Evrişimli Sinir Ağları
The Generative Adversarial Network (GAN) is known as a generative deep learning model. It consists of generator and discriminator structures. Very successful examples of GAN model outputs known as synthetic data are known. It is a very difficult problem to detect synthetic data, which can be used for different purposes, in case of successful generation. In this study, a Laplace filter and a new dissimilarity-based Convolutional Neural Network (CNN) layer is proposed in order to distinguish synthetic and real images, in which different and popular CNN models are used as feature extractors. The success results of the GAN model on different models have been determined. Thus, it has been understood that using CNN models is a suitable alternative for the detection of synthetic data that cannot be distinguished by the naked eye. The best success was achieved with DenseNet with an accuracy rate of 98.75%.
Synthetic Image Generative Adversarial Networks Convolutional Neural Networks
Birincil Dil | Türkçe |
---|---|
Konular | Yapay Zeka, Yazılım Testi, Doğrulama ve Validasyon |
Bölüm | Araştırma Makaleleri |
Yazarlar | |
Yayımlanma Tarihi | 30 Nisan 2023 |
Yayımlandığı Sayı | Yıl 2023 Cilt: 5 Sayı: 1 |