The aim of this study is to examine whether artificial intelligence (AI) language models can be effectively used as fact-checking tools and contribute to verification processes. The research was designed using a qualitative method with a case study approach, and thematic analysis was conducted through document analysis. ChatGPT and Gemini were selected using a similar sampling strategy. A total of 100 claims were examited 50 verified by Teyit.org concerning the Turkish agenda, and 50 verified by PolitiFact regarding the American and European agenda. Both AI models were asked to evaluate these claims based on the Truth-o-Meter rating scale. According to the findings, ChatGPT correctly identified 27 out of 50 claims related to Turkey, resulting in an accuracy rate of 52%, while Gemini correctly verified 38 claims, reaching 76%. For claims related to the Western agenda, ChatGPT again correctly answered 27 out of 50 (54%), while Gemini achieved 66% accuracy. Overall, Gemini demonstrated higher accuracy than ChatGPT across both regional contexts. These results indicate that although AI models can contribute to fact-checking efforts, their current performance is not yet reliable enough for standalone use in news verification. However, it is anticipated that with ongoing machine learning advancements and integration of real-time data, AI models will significantly improve. In the near future, such models could become dependable tools in the fact-checking ecosystem.
Artificial intelligence Fact-checking Allegation News ChatGPT Gemini
Bu çalışmanın amacı, yapay zekâ dil modellerinin teyit mekanizması olarak etkili bir şekilde kullanılıp kullanılamayacağını ve doğrulama süreçlerinde nasıl katkı sunabileceğini sorgulamaktadır. Bu amaç dahilinde çalışma; nitel yöntem, durum çalışması desenine göre tasarlanmış ve doküman belge incelemesi tekniği kullanılarak tematik analiz gerçekleştirilmiştir. Araştırmada benzeşik örneklem stratejisiyle seçilen ChatGPT ve Gemini’ye Teyit.org tarafından doğrulanmış Türkiye gündemine dair 50, PolitiFact tarafından doğrulanmış Amerika ve Avrupa gündemine dair 50 iddia olmak üzere toplam 100 iddia yöneltilerek Truth-o-Meter gerçeklik derecelendirme ölçeğine göre iddiaları değerlendirmeleri istenmiştir. Böylece iki modelin Türkiye ve Batı gündemine ilişkin doğruluk performansları karşılaştırılmıştır. Araştırma bulgularına göre, ChatGPT Türkiye gündemindeki 50 iddianın 27’sini doğru bilmiş ve %52 doğruluk oranına ulaşmıştır. Gemini ise 38 iddiayı doğru bilmiş ve %76 doğruluk oranına ulaşmıştır. Öte yandan, Batı gündeminde ise ChatGPT 50 iddianın 27’sini doğru yanıtlayarak, %54 doğruluk oranına ulaşmıştır. Gemini ise %66 doğruluk oranına ulaşmıştır. Elde edilen sonuçlar, yapay zekâ araçlarının gerçeklik kontrolü gibi alanlarda potansiyel taşımasına rağmen, şu an için doğruluk mekanizması olarak tam anlamıyla güvenilir bir performans sergilemediğini göstermektedir. Ancak haber doğrulama süreçlerinde karşılaşılan hız, zaman ve maliyet gibi problemlere önemli ölçüde katkı sunabilme potansiyeline sahiptir. Ayrıca süreç içerisinde makine öğrenimi veya doğrudan veri yüklemesi ile yapay zeka modellerinin daha gelişmiş very tabanlarına sahip olacağı ve bilgi doğruluk oranlarının makul seviyelere ulaşacağı göz önüne alındığında gelecekte yapay zeka araçlarının doğruluk kontrolörü olarak kullanılabileceği düşünülmektedir
| Birincil Dil | İngilizce |
|---|---|
| Konular | İletişim Teknolojisi ve Dijital Medya Çalışmaları |
| Bölüm | Araştırma Makalesi |
| Yazarlar | |
| Gönderilme Tarihi | 6 Ocak 2026 |
| Kabul Tarihi | 27 Mart 2026 |
| Yayımlanma Tarihi | 1 Nisan 2026 |
| DOI | https://doi.org/10.7456/tojdac.1857415 |
| IZ | https://izlik.org/JA65TG73HF |
| Yayımlandığı Sayı | Yıl 2026 Cilt: 16 Sayı: 2 |
All site content, except where otherwise noted, is licensed under a Creative Common Attribution Licence. (CC-BY-NC 4.0)
