Araştırma Makalesi
BibTex RIS Kaynak Göster

“Do Not Believe Everything You See”: A Document Analysis on Deep Fake Studies

Yıl 2021, Cilt: 6 Sayı: 13, 728 - 747, 30.09.2021
https://doi.org/10.37679/trta.969162

Öz

In the study, the positive and negative aspects of new communication technologies were
evaluated based on the studies on "deep fake". In the study, the views of Walter Benjamin and
Jean Baudrillard on the relationship between technology and society were used. It has been
discussed in terms of enabling the production of “deep fake” fake news and misleading content,
which is an artificial intelligence-based application, at a time when reality is disconnected from
its origin, and facilitates being politicized as entertainment. In this context, the literature on the
"deep fake" application was scanned, and document analysis was carried out on the studies
on the concept of deep fake. Articles are classified according to their content and the deep
fakes they focus on. 9 articles directly related to the field of communication were included
in the sample of this research. A closer look at these 9 articles reveals that more than half of
the available studies are conceptual studies, and most of them focus on the risks of deep fake
content. As a result of the analysis, it has been seen that there are few studies on the concept
of deep fake and its application in the field of communication studies. It has been determined
that the majority of the studies focus on the risks of the application. While the deep fake
application is constantly moving towards perfection, especially with machine learning, it has
been expressed in the studies that the technology in the detection of deep fakes does not
progress at the same speed. As the risk of deep-fake content to influence political campaigns
and public opinion increases, the field of communication studies should focus on investigating
the effects of politically motivated deep-fake on citizens. It should be noted that there is an
important deficiency in this area.

Kaynakça

  • Ajaka, N., Samuels, E., & Kessler, G. (2019). The Washington Post’s guide to manipulated video. TheWashington Post.
  • Allen, J., Howland, B., Mobius, M., Rothschild, D., & Watts, D. J. (2020). Evaluating the fake news problem at the scale of the information ecosystem. Science Advances, 6 (14), 1–6.
  • Anderson, C. (2019). A new hermeneutics of suspicion? The challenge of deepfakes to theological epistemology. Cursor_ Zeitschrift Für Explorative Theologie.
  • Asimov, İ. (2016). Ben Robot (E. Odabaş, Çev.). İstanbul: İthaki Yayınları.
  • Baudrillard, J. (2003). Simülakrlar ve Simülasyon (O. Adanır, Çev.). Ankara: Doğu Batı Yayınları.
  • Benjamin, W. (2015). Teknik Olarak Yeniden-Üretilebilirlik Çağında Sanat Yapıtı (G. Sarı, Çev.). İstanbul: Zeplin Yayınları.
  • Berk, M. E. (2020). Dijital çağın yeni tehlikesi “deepfake”. OPUS–Uluslararası Toplum Araştırmaları Dergisi, 16(28), 1508-1523.
  • Citron, D. K. & Chesney, R. (2018). Deep fakes: a looming challenge for privacy, democracy, and national security. California Law Review, Vol. 107, 1753–1820.
  • Citron, D. K., & Chesney, R. (2019). 21st century-style truth decay: Deep fakes and the challenge for privacy, free expression, and national security. Maryland Law Review, Vol.78(4), 882–891.
  • Demircan, B. (2020). Politik öznenin özneleşen yeni medya ile ikilemi. İçinde: Yeni Medya, Toplum ve Siyasal İletişim (H. Hülür ve C. Yaşin, Ed.). Ankara: Ütopya Yayınları.
  • Ellul, J. (2003). Teknoloji ve Toplum (M. Ceylan, Çev.). İstanbul: Bakış Yayınları.
  • İnam, A. (2019). Ahmet İnam ile Söyleşi: İnsanı Tanımak için Yapay Zekâ: Sahici İnsan ve Bir Yaşam Tarzı Olarak Felsefe. Yapay Zekâ ve Zihin Felsefesi Dergisi. 2/2, 137-158.
  • Kaplan, A. & Haenlein, M. (2018). Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence. Business Horizons, 62 (1), 15-25.
  • Godulla, A., Hoffmann, P. C. & Seibert, D. (2021). Dealing with deepfakes an interdisiplinary examination of the state of research and implications for communication studies. Studies in Communication and Media. 10/1, 72-96.
  • Khodabakhsh, A., Ramachandra, R., & Busch, C. (2019). Subjective evaluation of mediaconsumer vulnerability to fake audiovisual content. IEEE 11th International Conference on Quality of Multimedia Experience, 1–6.
  • Maras, M.-H. & Alexandrou, A. (2019). Determining authenticity of video evidence in theage of artificial intelligence and in the wake of deepfake videos. The International Journal of Evidence & Proof, Vol. 23(3), 255–262.
  • Marshall, G. (1999). Sosyoloji Sözlüğü. Ankara: Bilim Sanat Yayınları.
  • Muller, P. & Denner, N. (2017). What to do against fake news? An analysis based on the conditions under which fake news originates and the effects of targeted false reports on the Internet. Berlin: Friedrich Naumann Stiftungfur die Freiheit.
  • Silbey, J. & Hartzog, W. (2019). The upside of deep fakes. Maryland Law Review, 78, 960-966.
  • Sunal, G & Kara, A . (2021). Sen hep gülümse reklam filminin göstergebilimsel çözümlemesi üzerinden eleştirel bir değerlendirme. İnönü Üniversitesi İletişim Fakültesi Elektronik Dergisi (İNİF E-Dergi). 6/1, 79-102.
  • Süslü, A. (2019). Doğa ve insan bilimlerinde yapay zekâ uygulamaları. Akedemia Doğa ve İnsan Bilimleri Dergisi. 5/1, 1-10.
  • Tamer, H. S. ve Övgün, V. (2020). Yapay zekâ bağlamında dijital dönüşüm ofisi. SBF Dergisi. 75/2, 775-803.
  • Tandoc Jr, E. C., Lim, Z. W., & Ling, R. (2018). Defining “fake news”: A typology of scholarly definitions. Digital journalism, 6(2), 137–153.
  • Temir, E. (2020). Deepfake: New Era in The Age of Disinformation & End of Reliable Journalism . Selçuk İletişim Dergisi, 13 (2), 1009-1024 .
  • Tsfati, Y., Boomgaarden, H. G., Stromback, J., Vliegenthart, R., Damstra, A., & Lindgren,
  • E. (2020). Causes and consequences of mainstream media dissemination of fake news: literatüre review and synthesis. Annals of the International Communication Association. 44(2), 1–17.
  • Vaccari, C. & Chadwick, A. (2020). Deepfakes and disinformation: exploring the impact of synthetic political video on deception, uncertainty, and trust in news. Social Media+ Society, 6 (1), 1–13.
  • Wardle, C. & Derakhshan, H. (2017). Information disorder: toward an interdisciplinary framework for research and policy making. Council of Europe report, 27.
  • Westerlund, M. (2019). The emergence of feepfake technology: a review. Technology Innovation Management Review. 9/11, 39–52.
  • Vizoso, A. (2021). Fighting Deepfakes: Media and Internet Giants’ Converging and DivergingStrategies Against Hi-Tech Misinformation. Media and Communication. 9/1, 291-300.
  • Yadav, D. & Salmani, S. (2019). Deepfake: a survey on facial forgery technique using generative adversarial network. IEEE International Conference on Intelligent Computing and Control Systems, Mayıs, 852–857.

“Gördüğün Her Şeye İnanma”: Derin Sahte Çalışmaları Üzerine Bir Doküman Analizi

Yıl 2021, Cilt: 6 Sayı: 13, 728 - 747, 30.09.2021
https://doi.org/10.37679/trta.969162

Öz

Çalışmada yeni iletişim teknolojilerinin beraberinde getirdiği olumlu ve olumsuz yönler, “derin sahte” üzerine yapılan çalışmalardan yola çıkılarak değerlendirilmiştir. İncelemede Walter Benjamin ve Jean Baudrillard’ın teknoloji ve toplum ilişkisi hakkındaki görüşlerinden faydalanılmıştır. Gerçekliğin kökeniyle bağını koparttığı bir dönemde, yapay zekâ temelli bir uygulama olan “derin sahte” yalan haber ve yanıltıcı içerik üretimine olanak sağlaması ve eğlence olarak politize olmayı kolaylaştırması bakımından tartışılmıştır. Bu kapsamda “derin sahte” uygulamasını konu edinen literatür taranmış, derin sahte kavramı üzerine yapılan çalışmalar üzerinden doküman analizi yapılmıştır. Makaleler içeriklerine ve odaklandıkları derin sahte konularına göre tasniflenmiştir. İletişim alanını doğrudan ilgilendiren 9 makale bu
araştırmanın örneklemine girmiştir. Bu 9 makaleye yakından bakıldığında, mevcut çalışmaların yarısından fazlasının kavramsal çalışmalar olduğu ve çoğunun derin sahte içeriklerinin risklerine odaklandığı tespit edilmiştir. Analiz sonucunda, iletişim çalışmaları alanında derin sahte kavramı ve uygulamasına ilişkin yapılan çalışmaların az sayıda olduğu görülmüştür. Çalışmaların ağırlıklı bir kısmında uygulamanın risklerine odaklanıldığı tespit edilmiştir. Derin sahte uygulamasının özellikle makine öğrenmesiyle sürekli mükemmele doğru bir ivme ile ilerlerken derin sahte tespiti konusunda teknolojinin aynı hızla ilerlemediği yapılan çalışmalarda dile getirilmiştir. Derin sahte ile üretilen içeriklerin siyasi kampanyaları ve kamuoyunu etkileme riski arttıkça iletişim çalışmaları alanı politik olarak motive edilen derin sahtelerin yurttaşlar üzerindeki etkilerini araştırmaya odaklanmalıdır. Bu alanda önemli bir eksikliğin olduğunu belirtmek gerekir. 

Kaynakça

  • Ajaka, N., Samuels, E., & Kessler, G. (2019). The Washington Post’s guide to manipulated video. TheWashington Post.
  • Allen, J., Howland, B., Mobius, M., Rothschild, D., & Watts, D. J. (2020). Evaluating the fake news problem at the scale of the information ecosystem. Science Advances, 6 (14), 1–6.
  • Anderson, C. (2019). A new hermeneutics of suspicion? The challenge of deepfakes to theological epistemology. Cursor_ Zeitschrift Für Explorative Theologie.
  • Asimov, İ. (2016). Ben Robot (E. Odabaş, Çev.). İstanbul: İthaki Yayınları.
  • Baudrillard, J. (2003). Simülakrlar ve Simülasyon (O. Adanır, Çev.). Ankara: Doğu Batı Yayınları.
  • Benjamin, W. (2015). Teknik Olarak Yeniden-Üretilebilirlik Çağında Sanat Yapıtı (G. Sarı, Çev.). İstanbul: Zeplin Yayınları.
  • Berk, M. E. (2020). Dijital çağın yeni tehlikesi “deepfake”. OPUS–Uluslararası Toplum Araştırmaları Dergisi, 16(28), 1508-1523.
  • Citron, D. K. & Chesney, R. (2018). Deep fakes: a looming challenge for privacy, democracy, and national security. California Law Review, Vol. 107, 1753–1820.
  • Citron, D. K., & Chesney, R. (2019). 21st century-style truth decay: Deep fakes and the challenge for privacy, free expression, and national security. Maryland Law Review, Vol.78(4), 882–891.
  • Demircan, B. (2020). Politik öznenin özneleşen yeni medya ile ikilemi. İçinde: Yeni Medya, Toplum ve Siyasal İletişim (H. Hülür ve C. Yaşin, Ed.). Ankara: Ütopya Yayınları.
  • Ellul, J. (2003). Teknoloji ve Toplum (M. Ceylan, Çev.). İstanbul: Bakış Yayınları.
  • İnam, A. (2019). Ahmet İnam ile Söyleşi: İnsanı Tanımak için Yapay Zekâ: Sahici İnsan ve Bir Yaşam Tarzı Olarak Felsefe. Yapay Zekâ ve Zihin Felsefesi Dergisi. 2/2, 137-158.
  • Kaplan, A. & Haenlein, M. (2018). Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence. Business Horizons, 62 (1), 15-25.
  • Godulla, A., Hoffmann, P. C. & Seibert, D. (2021). Dealing with deepfakes an interdisiplinary examination of the state of research and implications for communication studies. Studies in Communication and Media. 10/1, 72-96.
  • Khodabakhsh, A., Ramachandra, R., & Busch, C. (2019). Subjective evaluation of mediaconsumer vulnerability to fake audiovisual content. IEEE 11th International Conference on Quality of Multimedia Experience, 1–6.
  • Maras, M.-H. & Alexandrou, A. (2019). Determining authenticity of video evidence in theage of artificial intelligence and in the wake of deepfake videos. The International Journal of Evidence & Proof, Vol. 23(3), 255–262.
  • Marshall, G. (1999). Sosyoloji Sözlüğü. Ankara: Bilim Sanat Yayınları.
  • Muller, P. & Denner, N. (2017). What to do against fake news? An analysis based on the conditions under which fake news originates and the effects of targeted false reports on the Internet. Berlin: Friedrich Naumann Stiftungfur die Freiheit.
  • Silbey, J. & Hartzog, W. (2019). The upside of deep fakes. Maryland Law Review, 78, 960-966.
  • Sunal, G & Kara, A . (2021). Sen hep gülümse reklam filminin göstergebilimsel çözümlemesi üzerinden eleştirel bir değerlendirme. İnönü Üniversitesi İletişim Fakültesi Elektronik Dergisi (İNİF E-Dergi). 6/1, 79-102.
  • Süslü, A. (2019). Doğa ve insan bilimlerinde yapay zekâ uygulamaları. Akedemia Doğa ve İnsan Bilimleri Dergisi. 5/1, 1-10.
  • Tamer, H. S. ve Övgün, V. (2020). Yapay zekâ bağlamında dijital dönüşüm ofisi. SBF Dergisi. 75/2, 775-803.
  • Tandoc Jr, E. C., Lim, Z. W., & Ling, R. (2018). Defining “fake news”: A typology of scholarly definitions. Digital journalism, 6(2), 137–153.
  • Temir, E. (2020). Deepfake: New Era in The Age of Disinformation & End of Reliable Journalism . Selçuk İletişim Dergisi, 13 (2), 1009-1024 .
  • Tsfati, Y., Boomgaarden, H. G., Stromback, J., Vliegenthart, R., Damstra, A., & Lindgren,
  • E. (2020). Causes and consequences of mainstream media dissemination of fake news: literatüre review and synthesis. Annals of the International Communication Association. 44(2), 1–17.
  • Vaccari, C. & Chadwick, A. (2020). Deepfakes and disinformation: exploring the impact of synthetic political video on deception, uncertainty, and trust in news. Social Media+ Society, 6 (1), 1–13.
  • Wardle, C. & Derakhshan, H. (2017). Information disorder: toward an interdisciplinary framework for research and policy making. Council of Europe report, 27.
  • Westerlund, M. (2019). The emergence of feepfake technology: a review. Technology Innovation Management Review. 9/11, 39–52.
  • Vizoso, A. (2021). Fighting Deepfakes: Media and Internet Giants’ Converging and DivergingStrategies Against Hi-Tech Misinformation. Media and Communication. 9/1, 291-300.
  • Yadav, D. & Salmani, S. (2019). Deepfake: a survey on facial forgery technique using generative adversarial network. IEEE International Conference on Intelligent Computing and Control Systems, Mayıs, 852–857.
Toplam 31 adet kaynakça vardır.

Ayrıntılar

Birincil Dil Türkçe
Konular İletişim ve Medya Çalışmaları
Bölüm Makaleler
Yazarlar

Birol Demircan 0000-0003-3938-4884

Yayımlanma Tarihi 30 Eylül 2021
Gönderilme Tarihi 9 Temmuz 2021
Kabul Tarihi 23 Eylül 2021
Yayımlandığı Sayı Yıl 2021 Cilt: 6 Sayı: 13

Kaynak Göster

APA Demircan, B. (2021). “Gördüğün Her Şeye İnanma”: Derin Sahte Çalışmaları Üzerine Bir Doküman Analizi. TRT Akademi, 6(13), 728-747. https://doi.org/10.37679/trta.969162

                                                                      16115   16111        16112