This study analyses the standards that the world's leading news agencies are trying to develop on responsibilities regarding the use of artificial intelligence applications. The study used document analysis and examined the texts that set the standards for the use of artificial intelligence by the AA, AFP, AP and Reuters. Based on the question ‘What kind of standards do news agencies develop in terms of professional ethics and journalistic practices in the use of artificial intelligence tools?’, the relevant documents were analysed, and the issues highlighted by the agencies were evaluated by identifying common themes. These themes are: 'agency standards and protection of professional ethics', 'human control and sustainability', 'use of data', 'use of artificial intelligence as a tool in news production' and 'problem of reliability of artificial intelligence content'. Among the documents analysed, Anadolu Agency had the most comprehensive content, prioritising professional ethics, human control and sustainability. AFP emphasised the ethical limits of using artificial intelligence, its fundamental responsibilities as an agency and its editorial oversight. AP described the artificial intelligence tool it employs and highlighted one of the key issues by emphasising that it cannot replace human journalists. Reuters, which was almost exclusively positive about AI applications, was transparent about the tool it was using but also included statements about the importance of editorial control. AA, AP, and AFP addressed the issues of rights, privacy, and copyright infringement that may arise during data use. Reuters simply stated that they would ensure data security. AA, AP and AFP mentioned the issues that need to be considered because content produced by artificial intelligence contains disinformation, manipulation and misinformation.
Artificial Intelligence News Agencies Data Digitalisation Ethics.
Bu çalışmada, yapay zekâ uygulamalarının, habercilerin gündelik pratiklerinde kullanımının beraberinde taşıdığı sorumluluklar üzerine, dünyanın önde gelen haber ajanslarının geliştirmeye çalıştıkları standartlar incelenmiştir. Doküman analizinin kullanıldığı çalışmada, Anadolu Ajansı, AFP, AP ve Reuters haber ajanslarının yapay zekâ kullanımına ilişkin standartları belirleyen rehber ve metinleri ele alınmıştır. Araştırmada ‘haber ajansları, yapay zekâ araçları kullanımında meslek etiği ve habercilik pratikleri açısından ne tür standartlar geliştirmektedir?’ sorusundan hareketle, söz konusu dokümanlara ait maddeler irdelenmiş, ajansların öne çıkardıkları konular, ortak temalar oluşturularak değerlendirilmiştir. Bu temalar; “ajans standartları ve meslek etiğinin korunması”, “insan denetimi ve sürdürülebilirlik”, “veri kullanımı”, “haber üretiminde yardımcı araç olarak yapay zekâ kullanımı” ve “yapay zekâ içeriğinin güvenilirliği sorunu” şeklindedir. İncelenen dokümanlar arasında en kapsamlı içeriğin, özellikle meslek etiği ile insan denetimi ve sürdürülebilirlik başlıklarına öncelik veren Anadolu Ajansı’nda yer aldığı görülmüştür. AFP, yapay zekâ kullanımının etik sınırları, ajans olarak temel sorumlulukları ve editoryal denetimden bahsetmiştir. AP, kullandıkları yapay zekâ aracını açıklarken, insan gazetecilerin yerini alamayacağını vurgulayarak kilit noktalardan birine temas etmiştir. Yapay zekâ uygulamalarından neredeyse tamamen olumlu olarak bahseden Reuters, yararlandıkları aracı şeffaf biçimde açıklamış, ancak editoryal denetimin önemine gönderme yapan ifadelere de yer vermiştir. AA, AP ve AFP, veri kullanımı noktasında oluşabilecek hak, mahremiyet, telif hakkı ihlali konularını ele almıştır. Reuters ise veri güvenliğini sağlayacaklarını belirtmekle yetinmiştir. Diğer yandan AA, AP ve AFP, yapay zekâ tarafından üretilen içeriğin dezenformasyon, manipülasyon, yanlış bilgi içermesi nedeniyle dikkat edilmesi gereken hususlara değinmiştir.
| Birincil Dil | Türkçe |
|---|---|
| Konular | Gazetecilik Çalışmaları |
| Bölüm | Araştırma Makalesi |
| Yazarlar | |
| Gönderilme Tarihi | 27 Kasım 2024 |
| Kabul Tarihi | 30 Haziran 2025 |
| Yayımlanma Tarihi | 17 Temmuz 2025 |
| Yayımlandığı Sayı | Yıl 2025 Sayı: 70 |