Yapay zekanın yaygınlaşması ile birlikte açıklanabilirlik, yorumlanabilirlik, şeffaflık gibi konular önemli hale gelmiştir. Özellikle sağlık, savunma sanyii, güvenlik, hukuk gibi alanlarında. . Bu çalışmada; ileri beslemeli geri yayılımlı çok katmanlı Yapay Sinir Ağı (MLP : Multi Layer Perceptron) yapay zeka modellerinde giriş veri seti nitelik değerinin model çıkışına olan etkilerinin model mimarisi ile olan ilişkisi araştırılmıştır. Model giriş veri özniteliklerinin model tahminine katkıları SHAP yöntemi ile ölçülmüştür. MLP mimarisi değiştikçe giriş veri seti nitelik değerlerinin model çıkışına katkı oranları sıralaması da değişmektedir. Öznitelik etki sıralamasındaki değişimin çoğunlukla katkı düzeyleri birbirine görece yakın olan öznitelik değerleri için geçerli olduğu, etki oranı diğer özniteliklerden biraz farklı olan özniteliklerin etki sıralamasının MLP mimarisi ile çok fazla değişmediği gözlemlenmiştir. Bu sonuçlara göre model mimarisinin Açıklanabilir Yapay Zeka'da da belli bir oranda etkili olduğu, modelin doğruluk değeri ile özniteliklerin önem oranları arasında bir ilişki olmadığı sonucuna varılabilir.
Açıklanabilir Yapay ZekaSorumlu Sorumlu Yapay Zeka Derin Yapay Sinir Ağları Makine Öğrenmesi SHAP
With the widespread use of artificial intelligence, explainability, interpretability, and transparency are very important issues. Especially in the health, defence, security, and law domains. In this study, the same data sets are used for multilayer artificial neural network (MLP) different architectures, and the effects of data set attributes on MLP model output are analysed. The contributions of the model input data attributes to the model prediction were measured with the SHAP method. For the data sets, as the MLP architecture changes, the ranking of the importance levels of the input data set attribute values also changes. It was observed that the change in the attribute influence ranking is mostly valid for attribute values whose contribution levels are relatively close to each other, and the influence ranking of the attributes whose influence ratio is slightly different from other attributes does not change much with the MLP architecture. According to these results, it can be concluded that the model architecture is also effective to a certain extent in Explainable Artificial Intelligence and that there is no relationship between the model's accuracy value and the importance rates of the attributes.
Explainable Artificial Intelligent Responsible AI Deep Artificial Neural Network Machine Learning
Birincil Dil | İngilizce |
---|---|
Konular | Yönetim Bilişim Sistemleri |
Bölüm | Cilt 7 - Sayı 1 - 30 Haziran 2025 [tr] |
Yazarlar | |
Yayımlanma Tarihi | 30 Haziran 2025 |
Gönderilme Tarihi | 1 Kasım 2024 |
Kabul Tarihi | 23 Haziran 2025 |
Yayımlandığı Sayı | Yıl 2025 Cilt: 7 Sayı: 1 |