Research Article
BibTex RIS Cite

Yapay Zekâ Haberleri Aracılığıyla Medyada Distopyanın İnşası ve Hegemonik Etkileri: ChatGPT Özelinde Yaygınlaşan Korku Söylemi Üzerine Bir İnceleme / The Construction of Dystopia in the Media through Artificial Intelligence News and Hegemonic Effects: An Analysis on the Spreading Fear Discourse Specific to ChatGPT

Year 2024, Volume: 6 Issue: 1, 75 - 99
https://doi.org/10.47105/nsb.1392059

Abstract

Son yıllarda yaygınlaşarak hayatımızın birçok alanında önemli rol oynamaya başlayan yapay zekâ teknolojisi, otomasyon, sesli asistanlar, veri analizi ve diğer birçok uygulama sayesinde insanlara yardımcı olan bir araç haline gelmiş olsa da özellikle ChatGPT’nin hızlı gelişimi ile mesleklerin geleceğine yönelik spekülasyonlar da artmaya başlamıştır. Yapay zekâ teknolojisinihaberlerde, özellikle iş kaybına yönelik risklerle ilgili endişe tonu yüksek söylem dili kullanıldığı gözlemlenmektedir. Yapay zekâ teknolojileri ile ilgili haberler genellikle insanların işlerini kaybetme, gizlilik endişeleri, etik sorunlar ve hatta potansiyel bir yapay zekâ isyanı gibi korku unsurlarını vurgulamakta ve bu korku söyleminin toplumda belirli bir görüşü kabul etmeye ve bu teknolojilere karşı duyulan korku ve güvensizlik hissini pekiştirmeye yönelik hegemonik bir etkiye yol açma ihtimali söz konusu olmaktadır. Bu çalışma, medyada yer alan yapay zekâ haberlerinin oluşturduğu korku söyleminin hegemonik etkilerini, bilgi aktarımından sosyal algılamaya ve egemenlik ilişkilerine kadar geniş bir perspektiften değerlendirmeyi amaçlamaktadır. Çalışmada, yapay zekâ uzmanlarının medyada yer alan açıklamaları söylem analizi yöntemi çerçevesinde değerlendirilmekte ve ağırlıklı olarak yapay zekâ teknolojisinin potansiyel risklerini içeren korku söylemi yüksek haberlerin hegemonik etkileri ve olası sonuçları Gramsci’nin düşünsel yaklaşımı bağlamında tartışmaya açılmaktadır. Özellikle ChatGPT’nin teknoloji alanındaki büyük sıçramasıyla paralel olarak medyada yer alan yapay zekâ haberlerinin içeriklerinde yoğunlukla ‘Tehlike’ ve ‘Korku’ söylemlerinin yer alması neticesinde, toplumun yapay zekâ teknolojilerine karşı olumsuz bir tutum geliştirerek yapay zekânın potansiyel faydalarına karşı önyargı oluşması ihtimali değerlendirilmektedir. Çalışma, ancak bilinçli bir toplumun, medya içeriklerini ve haber analizlerini eleştirel bir yaklaşımla değerlendirebileceği ve teknolojik gelişmelere daha objektif bir bakış açısıyla yaklaşabileceği noktasından hareketle, medyada yer alan yapay zekâ haberlerinin oluşturduğu korku söyleminin etkilerini azaltmaya yönelik toplumun daha yüksek bir bilinç düzeyine ve medya okuryazarlığına ihtiyacı olduğu konusuna dikkat çekmektedir.

Ethical Statement

Bu çalışma etik kurul onayından muaftır.

Supporting Institution

Herhangi bir kurumdan destek alınmamıştır.

Thanks

Bu makale tek yazarlıdır. Özel teşekkür gerektirecek kişi ya da kuruluş yoktur.

References

  • Altheide, D. L. (2003). Mass media, crime, and the discourse of fear. The Hedgehog Review, Fall 03, 9-25.
  • Altheide, D. L., & Michalowski, R. S. (1999). Fear in the news: A discourse of control. The Sociological Quarterly, 3(40), 475-503. https://doi.org/10.1111/j.1533-8525.1999.tb01730.x
  • Artı Gerçek. (2023, Mayıs 4). Yapay zekânın babasından Cambridge Analytica uyarısı. https://artigercek.com/bilim-teknoloji/yapay-zekanin-babasindan-cambridge-analytica-uyarisi-248518h
  • Atalay, M., ve Çelik, E. (2017). Büyük veri analizinde yapay zekâ ve makine öğrenmesi uygulamalari-artificial intelligence and machine learning applications in big data analysis. Mehmet Akif Ersoy Üniversitesi Sosyal Bilimler Enstitüsü Dergisi, 9(22), 155-172. https://doi.org/10.20875/makusobed.309727
  • Baltacı, A. (2017). Nitel veri analizinde Miles-Huberman modeli. Ahi Evran Üniversitesi Sosyal Bilimler Enstitüsü Dergisi, 3(1), 1-15.
  • Bauman, Z. (2003). Modernlik ve müphemlik. (Çev: İsmail Türkmen), Ayrıntı Yayınları.
  • Bauman, Z. (2016). Postmodern etik. (Çev: Alev Türker), Ayrıntı Yayınları.
  • Bauman, Z., & Donuksa, L. (2020). Ahlâki körlük. (Çev: Akın Emre Pilgir), Ayrıntı Yayınları.
  • Bentley, P. J. (2022). Yapay zekâ ve robotik. (Çev: Emre Can Ercan), Kronik Kitap.
  • Carnoy, M. (2001). Gramsci ve devlet. (Çev: Mehmet Yetiş). Praksis.
  • Cevizoğlu, H. M. (2021). Değerli Bir Çılgınlık ve Hata: Foucault (Foucault ve Fault – Hata/Arıza). Motif Akademi Halkbilimi Dergisi, 14(33), 374-388.
  • Chomsky, N. (2012). The Science of language: Interviews with James McGilyray. Cambridge University Press. https://doi.org/10.1017/CBO9781139061018
  • CNNTURK. (2023, Haziran 1). Nasa Uzay fotoğrafları! NASA UFO görüntüleri! Uzaylılar var mı, gerçek mi. https://www.cnnturk.com/teknoloji/nasa-uzay-fotograflari-nasa-ufo-goruntuleri-uzaylilar-var-mi-gercek-mi
  • CNNTURK. (2023, Mart 25). Sapiens’in yazarı Harari, yapay zekâdan endişeli: ‘‘İnsanlığın sağ çıkıp çıkmayacağını bilmiyorum. https://www.cnnturk.com/dunya/sapiensin-yazari-harari-yapay-zekadan-endiseli-insanligin-sag-cikip-cikamayacagini-bilmiyorum
  • Çelik, H., ve Ekşi, H. (2008). Söylem analizi. Marmara Üniversitesi Atatürk Eğitim Fakültesi Eğitim Bilimleri Dergisi, 27(27), 99-117.
  • Çoban, F. (2022). Neo-Gramsciyan hegemonya analizi çerçevesinde Çin-Latin Amerika-Karayipler ilişkisi. Beykoz Akademi Dergisi, 10(2), 168-193. https://doi.org/10.14514/beykozad.1092953
  • Çoban, S. (2012). Gramsci, hegemonya ve kapitalizm. In First International Interdisciplinary Socia Inquiry Conference.
  • Demirbaş, Y., ve Başlar, G. (2022). Hakikat, temsil, inşa: Medyada gerçekliğin krizleri, toplumsal gerçekliğin algoritmik inşası ve yapay zekâ tartışmaları. Dora Basım-Yayın Dağıtım.
  • Donanımhaber. (2023). Yapay zekâ ve gelecek: Endişelenmeli miyiz? Bilim ve Ütopya, 39-44. https://www.donanimhaber.com/chatgpt-nin-arkasindaki-isim-yapay-zeka-konusunda-ifade-verdi--163788
  • Dursun, Ö. (2023). ChatGPT CEO’su tarih verdi: Yapay zekâ işinizi elinizden alacak. https://shiftdelete.net/sam-altman-yapay-zeka-yorumu
  • Ellingson, C. (2023 May 1). ‘The Godfather of A.I’ leaves google and warns of danger ahead https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html
  • Foucault, M. (2011). Entelektüelin siyasi işlevi: Seçme yazılar. (Çev: Osman Akınhay, Ferda Keskin, Işık Ergüden), Ayrıntı Yayınları.
  • Foucault, M. (2011). Özne ve iktidar: seçme yazılar. (Çev: Osman Akınhay, Işık Ergüden), Ayrıntı Yayınları.
  • Foucault, M. (2015). Büyük kapatılma. (Çev: Işık Ergüden, Ferda Keskin), Ayrıntı Yayınları.
  • Furedi, F. (2014). Korku kültürü. (Çev: Barış Yıldırım), Ayrıntı Yayınları.
  • Gillespie, T. (2014). The relevance of algorithms. En T. Gillespie, PJ Boczkowski, & KA Foot (Eds.), Media technologies: Essays on communication, materiality, and society (pp. 167-193). http://dx.doi.org/10.7551/mitpress/9780262525374.003.0009
  • Gramsci, A. (1971). Selection from the prison notebooks. Lawrance&Wishart.
  • Gramsci, A. (1986). Hapishane defterleri seçmeler. (Çev: Kenan Somer), Onur Yayınları.
  • Gramsci, A. (1997). Hapishane defterleri. (Çev: Adnan Cemgil), Belge Yayınları.
  • Gtech. (2021, Eylül 9). Yapay zekâ nedir, Yapay zekâ hakkında bilmeniz gerekenler. https://www.gtech.com.tr/yapay-zeka-nedir-yapay-zeka-hakkinda-bilmeniz-gerekenler/
  • Haberturk. (2019, Mayıs 6). Yuval Noah Harari: Yapay zekâ insanları hack'leyebilecek. https://www.haberturk.com/yuval-noah-harari-yapay-zeka-insanlari-hack-leyebilecek-2269768
  • Harari, Y. N. (2023, Mayıs 4). Yapay zekâ çok yakında yeni bir din yaratabilecek. Euronews. https://tr.euronews.com/2023/05/03/yazar-yuval-noah-harari-yapay-zeka-cok-yakinda-yeni-bir-din-yaratabilecek
  • Gazeteoksijen, (2023). Yapay zekânın yapabileceği işler için insanlara istihdam sağlamayı bırakacak. (Erişim tarihi: 06.06.2023). https://gazeteoksijen.com/teknoloji/ibm-yapay-zekanin-yapabilecegi-isler-icin-insanlara-istihdam-saglamayi-birakacak-177303
  • Ives, P. (2011). Gramsci’de dil ve hegemonya. (Çev: Ekrem Ekici), Kalkedon Yayınları. Iyengar, S., & Kinder, D. R. (1987). Önemli olan haberler: Televizyon ve Amerikan görüşü. Chicago Üniversitesi Yayınları.
  • Kant, I. (2006). Dünya yurttaşlığı amacına yönelik genel bir tarih düşüncesi, tarih felsefesi: Seçme metinler. (Çev: Uluğ Nutku), DoğuBatı Yayınları.
  • Kaplan, A. (2021). Artificial Intelligence (AI): When humans and machines might have to coexist. In P. Verdegem (Ed.), AI for everyone? Critical perspectives. University of Westminster Press. https://doi.org/10.16997/book55.b
  • Kızılkaya, E. (2013). Foucault ve Agamben’de dispozitif kavramı ve iktisat. Cumhuriyet Üniversitesi İktisadi ve İdari Bilimler Dergisi, 14(2), 19-44.
  • Layder, D. (2014). Sosyal teoriye giriş. (Çev: Ümit Tatlıcan), Küre Yayınları.
  • McQuail, D. (1983). The Influence and effects of mass media (2. Baskı). In J. Curran, M. Gurevitch ve J. Woolacott (Eds.), Mass Communication and Society. Erwards Arnold Ltd., Open University Press.
  • Megill, A. (2012). Aşırılığın peygamberleri: Nietzsche, Heidegger, Foucault, Derrida. (Çev: Tuncay Birkan), Say Yayınları.
  • NTV. (2023, Haziran 1). Yapay zekâdan kıyamet senaryosu. https://www.ntv.com.tr/galeri/teknoloji/yapay-zekadan-kiyamet-senaryosu,C7P_qYDzJUK65RO1hYbxPw
  • Özselçuk, S. (2017). Zygmunt Bauman sosyolojisinde “yabancı” sosyal tipinin iletişimsel boyutu: Sosyolojik düşünmede “sorumluluk” ve “hoşgörü.” Epokhé Sosyal Bilimler Dergisi, 1(1): 115-128.
  • Penrose, R. (2023). Yapay zekâya karşı doğal zekâ. (Çev: Ozan Can Hacıoğlu), Mitra Yayıncılık.
  • Punch K., Keith, (2011). Sosyal araştırmalara giriş: Nitel ve nicel yaklaşımlar. (Çev: Dursun Bayrak, H. Bader Arslan, Zeynep Akyüz), Siyasal Kitabevi.
  • Revel, J. (2012). Foucault sözlüğü. (Çev: Veli Urhan), Say Yayınları.
  • Rousseau, J. J. (2004). İnsanlar arasındaki eşitsizliğin kaynağı ve temelleri üzerine. (Çev: Hakan Zengin), Morpa Kültür Yayınları.
  • Schiller, H. (1993). Zihin yönlendirenler. (Çev: Cevdet Cerit), Pınar Yayınları.
  • Sharma, S. (2023). Yapay zekâ önümüzdeki 10 yıl içinde insanlığı geçebilir. https://www.gazeteduvar.com.tr/yapay-zeka-onumuzdeki-10-yil-icinde-insanligi-gecebilir-haber-1620368
  • Sözcü. (2023, Mayıs 24). ChatGPT yaratıcısından endişe verici açıklama: Durduramayacağız. https://www.sozcu.com.tr/2023/teknoloji/chatgpt-yaraticisindan-endise-verici-aciklama-durduramayacagiz-7693403/
  • Şahin, Y. (2017). Michel Foucault’da söylem analizi. Sosyal ve Kültürel Araştırmalar Dergisi (SKAD), 3(6), 119-135. Tarihistan. (tarih yok). Harari: Yapay zekâ insanlığı hackliyor. https://www.tarihistan.org/yapay-zek-insanligi-hackliyor/26816/
  • Tegmark, M. (2017). Yaşam 3.0: Yapay zekâ çağında insan olmak. (Çev: Ekin Can Göksoy), Pegasus Yayınları.
  • Telegraph. (2023, Nisan 23). The Telegraph’’ I don’t know if humans can survive Artificial Intelligence. https://www.telegraph.co.uk/news/2023/04/23/yuval-noah-harari-i-dont-know-if-humans-can-survive-ai/
  • Vallance, C. (2022, Haziran 14). Yapay zekâ: Google'ın 'En büyük korkum kapatılmak' diyen LAMDA teknolojisi gerçekten 'duyarlı' olabilir mi. (Erişim 10.06.2023). https://www.bbc.com/turkce/haberler-dunya-61795703
  • Varanasi, L. (t.y.). OpenAI CEO’su Sam Altman, zengin teknoloji milyarderinin tehlikeli derecede akıllı yapay zekâ yarattığı ‘Ex Machina’ filmini sonunda izledi. (Erişim tarihi: 07.06.2023). https://www.businessinsider.com/openai-sam-altman-finally-watched-ex-machina-dangerous-ai-robot-2023-6
  • Williams, R. (2003). Televizyon, teknoloji ve kültürel biçim. (Çev: Ahmet Ulvi Türkbağ), Dost Kitabevi.
  • Yüksel, E. (2001). Medyanın gündem belirleme gücü. Çizgi Kitabevi.

Yapay Zekâ Haberleri Aracılığıyla Medyada Distopyanın İnşası ve Hegemonik Etkileri: ChatGPT Özelinde Yaygınlaşan Korku Söylemi Üzerine Bir İnceleme / The Construction of Dystopia in the Media through Artificial Intelligence News and Hegemonic Effects: An Analysis on the Spreading Fear Discourse Specific to ChatGPT

Year 2024, Volume: 6 Issue: 1, 75 - 99
https://doi.org/10.47105/nsb.1392059

Abstract

This study seeks to critically examine the hegemonic effects of fear-driven discourse within media portrayals of AI, which often highlight the risks associated with these Technologies, including job displacement, privacy violations, ethical dilemmas, and the hypothetical risk of an AI rebellion. Such narratives, by emphasizing potential dangers, can significantly influence public perception, potentially leading to widespread societal acceptance of a dystopian view of AI that fosters fear and mistrust towards these Technologies. Employing a comprehensive discourse analysis methodology, this research evaluates the content and tone of AI-related news and expert opinions featured in media. The study scrutinizes how the portrayal of AI risks is constructed and explores the potential hegemonic impact of these narratives on social perceptions and Technologi consciousness. The theoretical framework underpinning this analysis draws extensively from Antonio Gramsci’s concept of cultural hegemony, which explores how societal consent Technol dominance of certain ideas is engineered through cultural and media outputs. This framework is crucial in understanding how AI-related media narratives can cultivate a cultural consensus that may hinder rational and informed engagement with AI Technologies. Additionally, Michel Foucault’s theories on surveillance and societal control are utilized to investigate the implications of AI in the formation of a global surveillance society, examining the dual role of AI as both an empowering and a controlling force within modern societies. This analysis is further enriched by considering Zygmunt Bauman’s exploration of modern fears, particularly the fear of the unknown, which is amplified in the context of rapid technological change and the introduction of advanced AI Technologies.
The critical role of the media in shaping public discourse around AI is emphasized, as it often frames these Technologies in contexts that highlight danger and loss rather than potential and innovation. This study assesses how such framing can lead to a hegemonic effect, where a singular pessimistic view dominates public discussions, potentially overshadowing the nuanced realities of AI advancements. The potential consequences of this include not only stymied public acceptance and integration of beneficial AI applications but also the enactment of restrictive policies that inhibit technological innovation. Furthermore, this research addresses the ethical debates surrounding AI, examining how fear-based narratives might skew public and policymaker perspectives towards overly cautious or even hostile stances on AI developments. The analysis of these narratives reveals how they can distort ethical considerations, leading to a polarization of viewpoints and potentially hindering balanced ethical discussions about AI. The necessity for increased media literacy and public awareness is a significant theme of this study. It advocates for educational initiatives aimed at demystifying AI Technologies and promoting an understanding that transcends fear-driven narratives. By fostering a more informed and critical societal approach to AI, the research suggests that public discourse can move towards a more balanced and constructive examination of AI Technologies.
As AI becomes more embedded in the fabric of daily life, the urgency for societal adaptation to coexist safely and ethically with AI is paramount. This study emphasizes the importance of creating a conscious society capable of critically evaluating media content and approaching technological developments from an informed perspective. Enhanced public awareness and media literacy are essential in reducing the impact of fear-driven narratives and supporting a societal framework that can fully harness the benefits of AI technologies. In conclusion, the abstract advocates for a concerted effort to engage critically with AI technologies and the narratives that shape their public perception. By increasing awareness, improving media literacy, and fostering an informed public discourse, this study aims to empower society to navigate the challenges and opportunities presented by AI with confidence and ethical foresight. The ultimate goal is to ensure that AI technologies are integrated into society in a way that promotes security, ethical practices, and a comprehensive understanding, thereby enhancing the collective welfare and technological competency of the global community. This abstract not only highlights the potential of AI to transform society but also underscores the critical need for an informed, ethical, and proactive approach to this transformative technology.

References

  • Altheide, D. L. (2003). Mass media, crime, and the discourse of fear. The Hedgehog Review, Fall 03, 9-25.
  • Altheide, D. L., & Michalowski, R. S. (1999). Fear in the news: A discourse of control. The Sociological Quarterly, 3(40), 475-503. https://doi.org/10.1111/j.1533-8525.1999.tb01730.x
  • Artı Gerçek. (2023, Mayıs 4). Yapay zekânın babasından Cambridge Analytica uyarısı. https://artigercek.com/bilim-teknoloji/yapay-zekanin-babasindan-cambridge-analytica-uyarisi-248518h
  • Atalay, M., ve Çelik, E. (2017). Büyük veri analizinde yapay zekâ ve makine öğrenmesi uygulamalari-artificial intelligence and machine learning applications in big data analysis. Mehmet Akif Ersoy Üniversitesi Sosyal Bilimler Enstitüsü Dergisi, 9(22), 155-172. https://doi.org/10.20875/makusobed.309727
  • Baltacı, A. (2017). Nitel veri analizinde Miles-Huberman modeli. Ahi Evran Üniversitesi Sosyal Bilimler Enstitüsü Dergisi, 3(1), 1-15.
  • Bauman, Z. (2003). Modernlik ve müphemlik. (Çev: İsmail Türkmen), Ayrıntı Yayınları.
  • Bauman, Z. (2016). Postmodern etik. (Çev: Alev Türker), Ayrıntı Yayınları.
  • Bauman, Z., & Donuksa, L. (2020). Ahlâki körlük. (Çev: Akın Emre Pilgir), Ayrıntı Yayınları.
  • Bentley, P. J. (2022). Yapay zekâ ve robotik. (Çev: Emre Can Ercan), Kronik Kitap.
  • Carnoy, M. (2001). Gramsci ve devlet. (Çev: Mehmet Yetiş). Praksis.
  • Cevizoğlu, H. M. (2021). Değerli Bir Çılgınlık ve Hata: Foucault (Foucault ve Fault – Hata/Arıza). Motif Akademi Halkbilimi Dergisi, 14(33), 374-388.
  • Chomsky, N. (2012). The Science of language: Interviews with James McGilyray. Cambridge University Press. https://doi.org/10.1017/CBO9781139061018
  • CNNTURK. (2023, Haziran 1). Nasa Uzay fotoğrafları! NASA UFO görüntüleri! Uzaylılar var mı, gerçek mi. https://www.cnnturk.com/teknoloji/nasa-uzay-fotograflari-nasa-ufo-goruntuleri-uzaylilar-var-mi-gercek-mi
  • CNNTURK. (2023, Mart 25). Sapiens’in yazarı Harari, yapay zekâdan endişeli: ‘‘İnsanlığın sağ çıkıp çıkmayacağını bilmiyorum. https://www.cnnturk.com/dunya/sapiensin-yazari-harari-yapay-zekadan-endiseli-insanligin-sag-cikip-cikamayacagini-bilmiyorum
  • Çelik, H., ve Ekşi, H. (2008). Söylem analizi. Marmara Üniversitesi Atatürk Eğitim Fakültesi Eğitim Bilimleri Dergisi, 27(27), 99-117.
  • Çoban, F. (2022). Neo-Gramsciyan hegemonya analizi çerçevesinde Çin-Latin Amerika-Karayipler ilişkisi. Beykoz Akademi Dergisi, 10(2), 168-193. https://doi.org/10.14514/beykozad.1092953
  • Çoban, S. (2012). Gramsci, hegemonya ve kapitalizm. In First International Interdisciplinary Socia Inquiry Conference.
  • Demirbaş, Y., ve Başlar, G. (2022). Hakikat, temsil, inşa: Medyada gerçekliğin krizleri, toplumsal gerçekliğin algoritmik inşası ve yapay zekâ tartışmaları. Dora Basım-Yayın Dağıtım.
  • Donanımhaber. (2023). Yapay zekâ ve gelecek: Endişelenmeli miyiz? Bilim ve Ütopya, 39-44. https://www.donanimhaber.com/chatgpt-nin-arkasindaki-isim-yapay-zeka-konusunda-ifade-verdi--163788
  • Dursun, Ö. (2023). ChatGPT CEO’su tarih verdi: Yapay zekâ işinizi elinizden alacak. https://shiftdelete.net/sam-altman-yapay-zeka-yorumu
  • Ellingson, C. (2023 May 1). ‘The Godfather of A.I’ leaves google and warns of danger ahead https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html
  • Foucault, M. (2011). Entelektüelin siyasi işlevi: Seçme yazılar. (Çev: Osman Akınhay, Ferda Keskin, Işık Ergüden), Ayrıntı Yayınları.
  • Foucault, M. (2011). Özne ve iktidar: seçme yazılar. (Çev: Osman Akınhay, Işık Ergüden), Ayrıntı Yayınları.
  • Foucault, M. (2015). Büyük kapatılma. (Çev: Işık Ergüden, Ferda Keskin), Ayrıntı Yayınları.
  • Furedi, F. (2014). Korku kültürü. (Çev: Barış Yıldırım), Ayrıntı Yayınları.
  • Gillespie, T. (2014). The relevance of algorithms. En T. Gillespie, PJ Boczkowski, & KA Foot (Eds.), Media technologies: Essays on communication, materiality, and society (pp. 167-193). http://dx.doi.org/10.7551/mitpress/9780262525374.003.0009
  • Gramsci, A. (1971). Selection from the prison notebooks. Lawrance&Wishart.
  • Gramsci, A. (1986). Hapishane defterleri seçmeler. (Çev: Kenan Somer), Onur Yayınları.
  • Gramsci, A. (1997). Hapishane defterleri. (Çev: Adnan Cemgil), Belge Yayınları.
  • Gtech. (2021, Eylül 9). Yapay zekâ nedir, Yapay zekâ hakkında bilmeniz gerekenler. https://www.gtech.com.tr/yapay-zeka-nedir-yapay-zeka-hakkinda-bilmeniz-gerekenler/
  • Haberturk. (2019, Mayıs 6). Yuval Noah Harari: Yapay zekâ insanları hack'leyebilecek. https://www.haberturk.com/yuval-noah-harari-yapay-zeka-insanlari-hack-leyebilecek-2269768
  • Harari, Y. N. (2023, Mayıs 4). Yapay zekâ çok yakında yeni bir din yaratabilecek. Euronews. https://tr.euronews.com/2023/05/03/yazar-yuval-noah-harari-yapay-zeka-cok-yakinda-yeni-bir-din-yaratabilecek
  • Gazeteoksijen, (2023). Yapay zekânın yapabileceği işler için insanlara istihdam sağlamayı bırakacak. (Erişim tarihi: 06.06.2023). https://gazeteoksijen.com/teknoloji/ibm-yapay-zekanin-yapabilecegi-isler-icin-insanlara-istihdam-saglamayi-birakacak-177303
  • Ives, P. (2011). Gramsci’de dil ve hegemonya. (Çev: Ekrem Ekici), Kalkedon Yayınları. Iyengar, S., & Kinder, D. R. (1987). Önemli olan haberler: Televizyon ve Amerikan görüşü. Chicago Üniversitesi Yayınları.
  • Kant, I. (2006). Dünya yurttaşlığı amacına yönelik genel bir tarih düşüncesi, tarih felsefesi: Seçme metinler. (Çev: Uluğ Nutku), DoğuBatı Yayınları.
  • Kaplan, A. (2021). Artificial Intelligence (AI): When humans and machines might have to coexist. In P. Verdegem (Ed.), AI for everyone? Critical perspectives. University of Westminster Press. https://doi.org/10.16997/book55.b
  • Kızılkaya, E. (2013). Foucault ve Agamben’de dispozitif kavramı ve iktisat. Cumhuriyet Üniversitesi İktisadi ve İdari Bilimler Dergisi, 14(2), 19-44.
  • Layder, D. (2014). Sosyal teoriye giriş. (Çev: Ümit Tatlıcan), Küre Yayınları.
  • McQuail, D. (1983). The Influence and effects of mass media (2. Baskı). In J. Curran, M. Gurevitch ve J. Woolacott (Eds.), Mass Communication and Society. Erwards Arnold Ltd., Open University Press.
  • Megill, A. (2012). Aşırılığın peygamberleri: Nietzsche, Heidegger, Foucault, Derrida. (Çev: Tuncay Birkan), Say Yayınları.
  • NTV. (2023, Haziran 1). Yapay zekâdan kıyamet senaryosu. https://www.ntv.com.tr/galeri/teknoloji/yapay-zekadan-kiyamet-senaryosu,C7P_qYDzJUK65RO1hYbxPw
  • Özselçuk, S. (2017). Zygmunt Bauman sosyolojisinde “yabancı” sosyal tipinin iletişimsel boyutu: Sosyolojik düşünmede “sorumluluk” ve “hoşgörü.” Epokhé Sosyal Bilimler Dergisi, 1(1): 115-128.
  • Penrose, R. (2023). Yapay zekâya karşı doğal zekâ. (Çev: Ozan Can Hacıoğlu), Mitra Yayıncılık.
  • Punch K., Keith, (2011). Sosyal araştırmalara giriş: Nitel ve nicel yaklaşımlar. (Çev: Dursun Bayrak, H. Bader Arslan, Zeynep Akyüz), Siyasal Kitabevi.
  • Revel, J. (2012). Foucault sözlüğü. (Çev: Veli Urhan), Say Yayınları.
  • Rousseau, J. J. (2004). İnsanlar arasındaki eşitsizliğin kaynağı ve temelleri üzerine. (Çev: Hakan Zengin), Morpa Kültür Yayınları.
  • Schiller, H. (1993). Zihin yönlendirenler. (Çev: Cevdet Cerit), Pınar Yayınları.
  • Sharma, S. (2023). Yapay zekâ önümüzdeki 10 yıl içinde insanlığı geçebilir. https://www.gazeteduvar.com.tr/yapay-zeka-onumuzdeki-10-yil-icinde-insanligi-gecebilir-haber-1620368
  • Sözcü. (2023, Mayıs 24). ChatGPT yaratıcısından endişe verici açıklama: Durduramayacağız. https://www.sozcu.com.tr/2023/teknoloji/chatgpt-yaraticisindan-endise-verici-aciklama-durduramayacagiz-7693403/
  • Şahin, Y. (2017). Michel Foucault’da söylem analizi. Sosyal ve Kültürel Araştırmalar Dergisi (SKAD), 3(6), 119-135. Tarihistan. (tarih yok). Harari: Yapay zekâ insanlığı hackliyor. https://www.tarihistan.org/yapay-zek-insanligi-hackliyor/26816/
  • Tegmark, M. (2017). Yaşam 3.0: Yapay zekâ çağında insan olmak. (Çev: Ekin Can Göksoy), Pegasus Yayınları.
  • Telegraph. (2023, Nisan 23). The Telegraph’’ I don’t know if humans can survive Artificial Intelligence. https://www.telegraph.co.uk/news/2023/04/23/yuval-noah-harari-i-dont-know-if-humans-can-survive-ai/
  • Vallance, C. (2022, Haziran 14). Yapay zekâ: Google'ın 'En büyük korkum kapatılmak' diyen LAMDA teknolojisi gerçekten 'duyarlı' olabilir mi. (Erişim 10.06.2023). https://www.bbc.com/turkce/haberler-dunya-61795703
  • Varanasi, L. (t.y.). OpenAI CEO’su Sam Altman, zengin teknoloji milyarderinin tehlikeli derecede akıllı yapay zekâ yarattığı ‘Ex Machina’ filmini sonunda izledi. (Erişim tarihi: 07.06.2023). https://www.businessinsider.com/openai-sam-altman-finally-watched-ex-machina-dangerous-ai-robot-2023-6
  • Williams, R. (2003). Televizyon, teknoloji ve kültürel biçim. (Çev: Ahmet Ulvi Türkbağ), Dost Kitabevi.
  • Yüksel, E. (2001). Medyanın gündem belirleme gücü. Çizgi Kitabevi.
There are 56 citations in total.

Details

Primary Language Turkish
Subjects Sociology and Social Studies of Science and Technology, Communication Sociology
Journal Section Research Articles
Authors

Aslı Kaprol 0000-0001-6707-5611

Publication Date
Submission Date November 16, 2023
Acceptance Date May 14, 2024
Published in Issue Year 2024 Volume: 6 Issue: 1

Cite

APA Kaprol, A. (n.d.). Yapay Zekâ Haberleri Aracılığıyla Medyada Distopyanın İnşası ve Hegemonik Etkileri: ChatGPT Özelinde Yaygınlaşan Korku Söylemi Üzerine Bir İnceleme / The Construction of Dystopia in the Media through Artificial Intelligence News and Hegemonic Effects: An Analysis on the Spreading Fear Discourse Specific to ChatGPT. Nitel Sosyal Bilimler, 6(1), 75-99. https://doi.org/10.47105/nsb.1392059


 indeksler