Bu çalışma, yapay zekâ üretimi içeriklerde görülen sistematik yanlılığı incelemekte ve bu yanlılıkların mizahi manipülasyon süreçlerine nasıl dönüşebileceğini analiz etmektedir. Araştırma, Donald Trump’ın 2025 yılında viral olan yapay zekâ üretimi Gazze videosu üzerinden yapay zekâ yanlılığı, politik iletişim ve mizah arasındaki kesişimi incelemektedir. Yapılan araştırmalar göstermektedir ki yapay zekâ modelleri, eğitildikleri veri setlerindeki toplumsal önyargıları öğrenebilir ve pekiştirebilir. Bununla birlikte yapılan tahminlere göre, 2025 yılına kadar internet içeriğinin %90’ının yapay zekâ tarafından üretileceği öngörülmektedir. Çalışmada TIBET metodolojisi kullanılarak Trump’ın videosu kapsamlı önyargı analizi açısından incelenmiştir. Bulgular, yapay zekânın komut (prompt) bağımlılığı nedeniyle sistematik önyargı üretiminin temel mekanizmasını oluşturduğunu göstermektedir. Veri setlerinin sömürgeci mirası, “palmiye ağaçları altında mutlu çocuk” gibi yönergeler verildiğinde sistemin Batılı kaynaklardan edindiği “egzotik yoksulluk” imgelerine yönelmesine neden olmaktadır. Araştırma, yapay zekanın “Filistinli mutlu bir çocuk” gibi yönergelere yanıt üretme kapasitesinin sınırlı olduğunu ortaya koymaktadır. Yapay zekâ üretimi içeriğin en tehlikeli yanı, mizah ile ciddi politik mesajları birleştirerek izleyicinin eleştirel düşünme yetisini sınırlandırmasıdır. Bu mizahi normalleştirme mekanizması, etnik temizlik gibi ağır politik önermeleri görsel eğlenceye dönüştürerek toplumsal gerçekliği çarpıtmaktadır. Sonuçlar, yapay zekâ teknolojilerinin demokratik söylemi tehdit edebilecek boyutta ideolojik manipülasyon araçlarına dönüşebileceğini göstermektedir.
This study looks at the regular prejudice in content artificial intelligence creates - it also analyzes how these prejudices turn into funny manipulation methods. The study examines the spot where AI prejudice, political talk along with humor meet, using Donald Trump’s popular AI-created Gaza video from 2025. AI models learn and support the social biases present in their training information. Forecasts show that by 2025, artificial intelligence will create ninety percent of internet content. For the Trump video, the study uses the TIBET method to do a full prejudice analysis. Results show that AI needs prompts, which forms the basic way it makes regular prejudice. The old ways of datasets cause the system to lean toward pictures of “different poor people” from Western places when it gets orders like “happy child under palm trees.” The study shows that AI has little ability to create answers for prompts such as “happy Palestinian child”. The most harmful part of AI-created content is that it puts humor with serious political ideas. This limits how well viewers can think clearly - this funny way of making things normal twists what is real in society. It changes important political ideas, like removing a group of people, into something fun to watch. The results point to AI tools becoming tools for controlling ideas, which could greatly endanger democratic discussions.
Humorous Manipulation Artificial Intelligence Bias Text-to-Image Models Political Communication
Primary Language | Turkish |
---|---|
Subjects | Communication Technology and Digital Media Studies |
Journal Section | Research Articles |
Authors | |
Publication Date | July 25, 2025 |
Submission Date | June 14, 2025 |
Acceptance Date | July 10, 2025 |
Published in Issue | Year 2025 Volume: 2 Issue: 2 |