Görüş Makalesi
BibTex RIS Kaynak Göster

Navigating the Post-Truth Abyss: The Dual-Use Dilemma of Synthetic Media and AI

Yıl 2025, Sayı: 18, 522 - 529, 30.06.2025

Öz

This paper aims to critically examine the nature of the dual use of generative AI in the modern information ecosystem. While AI offers powerful tools for communication and creativity, it also poses a serious challenge as it facilitates the production of ultra-realistic synthetic media, from fabricated texts to deepfake content. It is argued that the primary threat extends beyond simple deception to a more corrosive secondary effect, the so-called “Liar’s Dividend”, which undermines the foundation of evidence-based truth. Technological countermeasures, such as detection and provenance systems, have been developed, but they appear to be in an asymmetrical arms race with productive technologies. This paper argues that a purely technical solution is inadequate and argues instead for a holistic approach that combines limited technical interventions with robust policies, international regulatory frameworks and a renewed societal commitment to critical media literacy to navigate the emerging post-truth landscape.

Kaynakça

  • Chesney, R., & Citron, D. (2019). Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security. California Law Review, 107(6), 1753-1804
  • Schiff, K. J., Schiff, D. S., & Bueno, N. S. (2024). The Liar’s Dividend: Can Politicians Claim Misinformation to Evade Accountability? American Political Science Review, 118(2), 920-936
  • Groh, M., Epstein, Z., Firestone, C., & Picard, R. (2022). Deepfake detection by human crowds, machines, and machine-informed crowds. Proceedings of the National Academy of Sciences, 119(1), e2110013119
  • Sadasivan, V. S., Kumar, A., Balasubramanian, S., Zheng, W., & Feizi, S. (2023). Can AIGenerated Text be Reliably Detected? arXiv preprint arXiv:2303.11156
  • Coalition for Content Provenance and Authenticity (C2PA). (Çeşitli Tarihler). Technical Specification for Content Provenance and Authenticity
  • Stanford University Institute for Human-Centered Artificial Intelligence (HAI). (2025). AI Index Report
  • World Economic Forum. (2025). Global Risks Report 2025

Hakikat Sonrası Uçurumda Yön Bulmak: Sentetik Medya ve Yapay Zekanın İkili Kullanım İkilemi

Yıl 2025, Sayı: 18, 522 - 529, 30.06.2025

Öz

Bu çalışma, modern bilgi ekosisteminde üretken yapay zekanın ikili kullanımının doğasını örneklerle eleştirel bir şekilde ele almayı amaçlamaktadır. Yapay zeka, iletişim ve yaratıcılık manasında güçlü araçlar sunduğu gibi uydurma metinlerden derin kurgu (deepfake) içeriklere kadar ultra gerçekçi sentetik medya üretimini kolaylaştırması sebebiyle ciddi bir zorluk teşkil etmektedir. Birincil tehdidin basit aldatmacanın ötesinde, kanıta dayalı hakikatin temelini baltalayan “Yalancının Kâr Payı” olarak adlandırılan daha aşındırıcı, ikincil bir etkiye uzandığı görüşü savunulmaktadır. Tespit ve köken sistemleri gibi teknolojik karşı önlemler geliştirildiği gibi bunların üretken teknolojilerle asimetrik bir silahlanma yarışı içinde olduğu gözlemlenmektedir. Bu yazı, tamamen teknik bir çözümün yetersiz olduğunu iddia etmekte ve bunun yerine, ortaya çıkan hakikat sonrası manzarada yön bulmak için sınırlı teknik müdahaleleri sağlam politikalar, uluslararası düzenleyici çerçeveler ve eleştirel medya okuryazarlığına yönelik yenilenmiş bir toplumsal taahhütle birleştiren bütüncül bir yaklaşımın gerekliliği öne sürmektedir.

Kaynakça

  • Chesney, R., & Citron, D. (2019). Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security. California Law Review, 107(6), 1753-1804
  • Schiff, K. J., Schiff, D. S., & Bueno, N. S. (2024). The Liar’s Dividend: Can Politicians Claim Misinformation to Evade Accountability? American Political Science Review, 118(2), 920-936
  • Groh, M., Epstein, Z., Firestone, C., & Picard, R. (2022). Deepfake detection by human crowds, machines, and machine-informed crowds. Proceedings of the National Academy of Sciences, 119(1), e2110013119
  • Sadasivan, V. S., Kumar, A., Balasubramanian, S., Zheng, W., & Feizi, S. (2023). Can AIGenerated Text be Reliably Detected? arXiv preprint arXiv:2303.11156
  • Coalition for Content Provenance and Authenticity (C2PA). (Çeşitli Tarihler). Technical Specification for Content Provenance and Authenticity
  • Stanford University Institute for Human-Centered Artificial Intelligence (HAI). (2025). AI Index Report
  • World Economic Forum. (2025). Global Risks Report 2025
Toplam 7 adet kaynakça vardır.

Ayrıntılar

Birincil Dil Türkçe
Konular Yeni Medya
Bölüm Görüş
Yazarlar

Gökhan Varan Bu kişi benim 0000-0001-9953-3808

Yayımlanma Tarihi 30 Haziran 2025
Gönderilme Tarihi 16 Mayıs 2025
Kabul Tarihi 22 Haziran 2025
Yayımlandığı Sayı Yıl 2025 Sayı: 18

Kaynak Göster

APA Varan, G. (2025). Hakikat Sonrası Uçurumda Yön Bulmak: Sentetik Medya ve Yapay Zekanın İkili Kullanım İkilemi. Yeni Medya(18), 522-529.