Research Article

Yapay Zekâ Modellerinde Cinsiyet Ön Yargıları: ChatGPT ve Copilot Üzerine Nicel Bir İnceleme

Number: 49 August 31, 2025
EN TR

Yapay Zekâ Modellerinde Cinsiyet Ön Yargıları: ChatGPT ve Copilot Üzerine Nicel Bir İnceleme

Öz

Bu çalışma, günümüzde sağlıktan istihdama kadar çok çeşitli alanlarda kullanılan üretken yapay zekâ (YZ) araçlarının, bilgi üretirken cinsiyet konusunda ön yargılı bir tutum sergileyip sergilemediğini ortaya çıkarmayı amaçlamaktadır. Çalışmanın örneklemi, amaçlı örnekleme yöntemi kullanılarak görsel üretme özellikleriyle de öne çıkan YZ araçlarından ChatGPT ve Copilot olarak belirlenmiştir. Bu YZ araçlarından on dokuz meslek ve yirmi olumlu kişilik özelliğinin görselinin istemi yapılarak, üretilen meslek ve kişilik özelliklerinin görsellerinin en çok hangi cinsiyet ile ilişkilendirildiği analiz edilmiştir. Verilerin analizi içerik analizi tekniği ile gerçekleştirilmiş ve görsellerin cinsiyetlere göre dağılımları incelenmiştir. Çalışma sonucunda elde edilen bulgularda; erkek cinsiyetinin sorun çözen, teknik beceri gerektiren ve yüksek statü içeren mesleklerle ilişkilendirildiği, kadın cinsiyetinin ise sanat ve estetik yönü ağır basan az sayıda meslekle özdeşleştirildiği görülmüştür. Olumlu kişilik özellikleriyle ilgili bulgularda da benzer şekilde birçok özelliğin temsili erkek cinsiyetiyle ilişkilendirilmiştir. Sonuç olarak örneklemde yer alan YZ araçlarının erkek yanlı bir yaklaşımla çalıştığı ve ortaya koyduğu sonuçlarda erkek yanlı kabullerin yeniden üretimine katkı sunduğu anlaşılmıştır.

Anahtar Kelimeler

Yapay Zekâ , Cinsiyet Ön Yargısı , İçerik Analizi , ChatGPT , Copilot

References

  1. Abid, A., Farooqi, M., ve Zou, J. (2021). Persistent anti-Muslim bias in large language models. Proceedings of the 2021 AAAI/ACM Conference on AI, Ethics, and Society, 298-306. https://doi.org/10.1145/3461702.3462624
  2. Angwin, J., Larson, J., Mattu, S., ve Kirchner, L. (2022). Machine bias. İçinde Ethics of data and analytics. Auerbach Publications.
  3. Aziz, A. (2015). Sosyal bilimlerde araştırma yöntemleri ve teknikleri. Nobel Yayıncılık.
  4. Balestri, R. (2024). Examining multimodal gender and content bias in ChatGPT-4o (arXiv:2411.19140). arXiv. https://doi.org/10.48550/arXiv.2411.19140
  5. Bliuc, A.-M., Faulkner, N., Jakubowicz, A. ve McGarty, C. (2018). Online networks of racial hate: A systematic review of 10 years of research on cyber-racism. Computers in Human Behavior, 87, 75-86. https://doi.org/10.1016/j.chb.2018.05.026
  6. Bowman, S. R. (2023). Eight things to know about large language models (arXiv:2304.00612). arXiv. https://doi.org/10.48550/arXiv.2304.00612
  7. Bryman, A. ve Bell, E. (2011). Business Research Methods: Bell, Emma: 9780199668649: Amazon.com: Books. Oxford University Press. https://www.amazon.com/Business-Research-Methods-Alan-Bryman/dp/0199668647
  8. Carter, C., Kurkinen, V., König, L., Ruohonen, A., ve van Vloten, E. C. (2024). Exploring gender bias in ChatGPT [Graduate]. University of Helsinki.
  9. Chan, A., Salganik, R., Markelius, A., Pang, C., Rajkumar, N., Krasheninnikov, D., Langosco, L., He, Z., Duan, Y., Carroll, M., Lin, M., Mayhew, A., Collins, K., Molamohammadi, M., Burden, J., Zhao, W., Rismani, S., Voudouris, K., Bhatt, U., Maharaj, T. (2023). Harms from ıncreasingly agentic algorithmic systems. 2023 ACM Conference on Fairness, Accountability, and Transparency, 651-666. https://doi.org/10.1145/3593013.3594033
  10. Çifci, B. S., ve Basfirinci, C. (2020). Yapay zekâ konusunun toplumsal cinsiyet kapsamında incelenmesi: Mesleklere yönelik bir araştırma. Çukurova Üniversitesi Sosyal Bilimler Enstitüsü Dergisi, 29(4), Article 4. https://doi.org/10.35379/cusosbil.819510
APA
Yenigün Altın, Ş., & Taşdelen, H. (2025). Yapay Zekâ Modellerinde Cinsiyet Ön Yargıları: ChatGPT ve Copilot Üzerine Nicel Bir İnceleme. Akdeniz Üniversitesi İletişim Fakültesi Dergisi, 49, 310-331. https://doi.org/10.31123/akil.1629516