Araştırma Makalesi
BibTex RIS Kaynak Göster

Yapay Zekâ Üretiminde Kültürel Temsiller ve Algoritmik Yanlılık: DALL-E Örneğinde Göstergebilimsel Analiz

Yıl 2025, Cilt: 7 Sayı: 2, 254 - 281, 29.12.2025
https://doi.org/10.53281/kritik.1798961
https://izlik.org/JA85WD26BW

Öz

Bu çalışma, yapay zekâ tabanlı görsel üretim araçlarının kültürel temsilleri nasıl kurguladığını ve bu süreçte hangi algoritmik yanlılıkların yeniden üretildiğini incelemektedir. Özellikle DALL-E aracılığıyla üretilen görseller, Roland Barthes’ın göstergebilimsel analiz modeli (düzanlam, yananlam, mit) çerçevesinde değerlendirilmiştir. Araştırma kapsamında on farklı senaryo (aile yemeği, çocuk oyunu, düğün, festival, kafe, ofis toplantısı, okul sınıfı, pazar yeri, spor etkinliği, ulusal kutlama) için dört ayrı kültürel bağlamda (nötr, Batı, İslam, Uzakdoğu) toplam kırk görsel üretilmiştir. Bulgular, “nötr” olarak tanımlanan görsellerin çoğunlukla Batı kültürünü evrensel bir norm olarak sunduğunu; İslam kültürünün dinî ögelerle, Uzakdoğu kültürünün ise egzotik ve folklorik motiflerle temsil edildiğini göstermektedir. Bu durum, yapay zekâ modellerinin eğitim verilerindeki dengesizlikler nedeniyle Batı merkezli normları yeniden ürettiğini, diğer kültürleri ise indirgemeci ve stereotipleştirici biçimde sunduğunu ortaya koymaktadır. Çalışma, algoritmik yanlılığın yalnızca teknik bir sorun değil, aynı zamanda toplumsal ve kültürel eşitsizliklerin yeniden üretimine aracılık eden ideolojik bir süreç olduğunu vurgulamaktadır.

Kaynakça

  • Baum, J., & Villasenor, J. (2024, April 17). Rendering misrepresentation: Diversity failures in AI image generation. Brookings Institution. https://www.brookings.edu/articles/rendering-misrepresentation-diversity- failures-in-ai-image-generation/
  • Barthes, R. (1972). Mythologies. Hill and Wang.
  • Benjamin, R. (2019). Race after technology: Abolitionist tools for the new Jim code. Polity.
  • Cecere, G., Jean, C., Le Guel, F., & Manant, M. (2024). Artificial intelligence and algorithmic bias? Field tests on social network with teens. Technological Forecasting and Social Change, 201, 123204. https:// doi.org/10.1016/j.techfore.2023.123204
  • Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. Picador.
  • Fazelpour, S., & Donks, D. (2021). Algorithmic bias: Senses, sources, solutions. Philosophy & Techno- logy / Compass (Wiley).
  • Fidan, Ü. (2025). Yönetim Bilişim Sistemleri Perspektifinden Algoritmik Yanlılık ve Etik Karar Ver- me. In S. Vahid (Ed.), Yönetim Bilişim Sistemleri Alanında Yenilikçi Çözümler ve Güncel Yaklaşımlar (pp. 89–120). Özgür Yayınları.
  • Gillespie, T. (2014). The relevance of algorithms. In T. Gillespie, P. J. Boczkowski, & K. A. Foot (Eds.), Media technologies: Essays on communication, materiality, and society. MIT Press.
  • Johnson, K. (2022, May 5). DALL-E 2 creates incredible images—and biased ones you don’t see. Wi- red. https://www.wired.com/story/dall-e-2-ai-text-image-bias-social-media/
  • Kennedy, H. (2018). Post, mine, repeat: Social media data mining becomes ordinary. Social Media + Society.
  • Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. NYU Press.
  • Noble, S. U., & Tynes, B. M. (2016). The intersectional internet: Race, sex, class, and culture online. University of Illinois Press.
  • Özer, N. P., & Yarar, A. E. (2019). Göstergebilimsel bir reklam analizi: Burger King “ateş seni çağırıyor.” Atatürk İletişim Dergisi, 18, 105–124. https://doi.org/10.32952/atauniiletisim.641375
  • Özer, N. P., & Zengin, A. M. (2020). Arabesk kültürü özelinde Orhan Gencebay’ın rol aldığı Rexona reklamlarının incelenmesi. Kritik İletişim Çalışmaları Dergisi, 2(1), 1–12.
  • Pasquale, F. (2015). The black box society: The secret algorithms that control money and information. Harvard University Press.
  • Rosenthal-von der Pütten, A. M., & Sach, A. (2024). Michael is better than Mehmet: Exploring the perils of algorithmic biases and selective adherence to advice from automated decision support systems in hiring. Frontiers in Psychology, 15. https://doi.org/10.3389/fpsyg.2024.1416504
  • Sandvig, C., Hamilton, K., Karahalios, K., & Langbort, C. (2014). Auditing algorithms: Research met- hods for detecting discrimination on internet platforms. In Data and discrimination: Converting critical con- cerns into productive inquiry.
  • Thiem, A., & Dusa, A. (2020). Algorithmic bias in social research: A meta-analysis. PLOS ONE, 15(4), e0233625. https://doi.org/10.1371/journal.pone.0233625
  • Zajko, M. (2020). Conservative AI and social inequality: Conceptualizing alternatives to bias through social theory. arXiv. https://arxiv.org/abs/2007.08666

Cultural Representations and Algorithmic Bias in AI Generation: A Semiotic Analysis of the Case of DALL-E

Yıl 2025, Cilt: 7 Sayı: 2, 254 - 281, 29.12.2025
https://doi.org/10.53281/kritik.1798961
https://izlik.org/JA85WD26BW

Öz

This study investigates how AI-based image generation tools construct cultural representations and reproduce algorithmic biases within these processes. Visuals produced by DALL-E are analyzed through Roland Barthes’ semiotic framework of denotation, connotation, and myth. The research design includes ten scenarios (family dinner, children’s play, wedding, festival, café, office meeting, classroom, marketplace, sports event, and national celebration), each generated in four cultural contexts (neutral, Western, Islamic, and East Asian), resulting in a total of forty images. The findings reveal that so-called “neutral” visuals predominantly normalize Western culture as the universal standard, while Islamic contexts are reduced to religious markers and East Asian contexts are depicted through exotic or folkloric motifs. These results demonstrate that generative AI systems, due to imbalances in their training datasets, reproduce Western-centric norms and portray non-Western cultures in reductive and stereotypical ways. The study emphasizes that algorithmic bias is not merely a technical limitation but also an ideological process that reproduces social and cultural inequalities.

Kaynakça

  • Baum, J., & Villasenor, J. (2024, April 17). Rendering misrepresentation: Diversity failures in AI image generation. Brookings Institution. https://www.brookings.edu/articles/rendering-misrepresentation-diversity- failures-in-ai-image-generation/
  • Barthes, R. (1972). Mythologies. Hill and Wang.
  • Benjamin, R. (2019). Race after technology: Abolitionist tools for the new Jim code. Polity.
  • Cecere, G., Jean, C., Le Guel, F., & Manant, M. (2024). Artificial intelligence and algorithmic bias? Field tests on social network with teens. Technological Forecasting and Social Change, 201, 123204. https:// doi.org/10.1016/j.techfore.2023.123204
  • Eubanks, V. (2018). Automating inequality: How high-tech tools profile, police, and punish the poor. Picador.
  • Fazelpour, S., & Donks, D. (2021). Algorithmic bias: Senses, sources, solutions. Philosophy & Techno- logy / Compass (Wiley).
  • Fidan, Ü. (2025). Yönetim Bilişim Sistemleri Perspektifinden Algoritmik Yanlılık ve Etik Karar Ver- me. In S. Vahid (Ed.), Yönetim Bilişim Sistemleri Alanında Yenilikçi Çözümler ve Güncel Yaklaşımlar (pp. 89–120). Özgür Yayınları.
  • Gillespie, T. (2014). The relevance of algorithms. In T. Gillespie, P. J. Boczkowski, & K. A. Foot (Eds.), Media technologies: Essays on communication, materiality, and society. MIT Press.
  • Johnson, K. (2022, May 5). DALL-E 2 creates incredible images—and biased ones you don’t see. Wi- red. https://www.wired.com/story/dall-e-2-ai-text-image-bias-social-media/
  • Kennedy, H. (2018). Post, mine, repeat: Social media data mining becomes ordinary. Social Media + Society.
  • Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. NYU Press.
  • Noble, S. U., & Tynes, B. M. (2016). The intersectional internet: Race, sex, class, and culture online. University of Illinois Press.
  • Özer, N. P., & Yarar, A. E. (2019). Göstergebilimsel bir reklam analizi: Burger King “ateş seni çağırıyor.” Atatürk İletişim Dergisi, 18, 105–124. https://doi.org/10.32952/atauniiletisim.641375
  • Özer, N. P., & Zengin, A. M. (2020). Arabesk kültürü özelinde Orhan Gencebay’ın rol aldığı Rexona reklamlarının incelenmesi. Kritik İletişim Çalışmaları Dergisi, 2(1), 1–12.
  • Pasquale, F. (2015). The black box society: The secret algorithms that control money and information. Harvard University Press.
  • Rosenthal-von der Pütten, A. M., & Sach, A. (2024). Michael is better than Mehmet: Exploring the perils of algorithmic biases and selective adherence to advice from automated decision support systems in hiring. Frontiers in Psychology, 15. https://doi.org/10.3389/fpsyg.2024.1416504
  • Sandvig, C., Hamilton, K., Karahalios, K., & Langbort, C. (2014). Auditing algorithms: Research met- hods for detecting discrimination on internet platforms. In Data and discrimination: Converting critical con- cerns into productive inquiry.
  • Thiem, A., & Dusa, A. (2020). Algorithmic bias in social research: A meta-analysis. PLOS ONE, 15(4), e0233625. https://doi.org/10.1371/journal.pone.0233625
  • Zajko, M. (2020). Conservative AI and social inequality: Conceptualizing alternatives to bias through social theory. arXiv. https://arxiv.org/abs/2007.08666
Toplam 19 adet kaynakça vardır.

Ayrıntılar

Birincil Dil Türkçe
Konular İletişim ve Medya Çalışmaları (Diğer), Kültürel çalışmalar (Diğer)
Bölüm Araştırma Makalesi
Yazarlar

Nuri Paşa Özer 0000-0001-9743-2878

Gönderilme Tarihi 7 Ekim 2025
Kabul Tarihi 20 Kasım 2025
Yayımlanma Tarihi 29 Aralık 2025
DOI https://doi.org/10.53281/kritik.1798961
IZ https://izlik.org/JA85WD26BW
Yayımlandığı Sayı Yıl 2025 Cilt: 7 Sayı: 2

Kaynak Göster

APA Özer, N. P. (2025). Yapay Zekâ Üretiminde Kültürel Temsiller ve Algoritmik Yanlılık: DALL-E Örneğinde Göstergebilimsel Analiz. Kritik İletişim Çalışmaları Dergisi, 7(2), 254-281. https://doi.org/10.53281/kritik.1798961

Kritik İletişim Çalışmaları Dergisi © 2018 by Nuri Paşa Özer is licensed under Creative Commons Attribution-NonCommercial 4.0 International. 

Journal of Critical Communication © 2018 by Nuri Paşa Özer is licensed under Creative Commons Attribution-NonCommercial 4.0 International.