Autonomous weapon systems can select and engage targets without meaningful human intervention. In light of developments in artificial intelligence and machine learning technology, autonomous weapon systems are likely to become a central feature of today's armed conflicts. Who is responsible when autonomous weapons systems commit a war crime is still being debated. In this article, to whom responsibility should be attributed will be examined in the context of command responsibility. Autonomous weapon systems destroy the chain of command in line with their ability to make decisions on their own. While the commander is expected to discipline his troops, to what extent will it be possible for autonomous systems consisting of algorithms. Military discipline systems prescribe punitive measures to ensure that the rules are followed. But artificial intelligence cannot be punished therefore it will not be able to respond to disciplinary actions. There are two main research questions that will be examined in this article. Because of systems that can make their own decisions through autonomy and artificial intelligence, when can a reasonable commander knew or should have known that an autonomous weapon system is about to commit a crime? What necessary and reasonable measures should commanders take to carry out their preventive duties? The concept of command responsibility regulates the relationship between human commanders and their subordinates. In the Rome statute, the commander is the person who exercises authority over military activities, but the commanders and subordinates are always considered human beings therefore the concept of command responsibility should be interpreted in light of the new developments in military technology.
artificial intelligence command responsibility autonomous weapon systems
Uluslararası insancıl hukuk ve uluslararası ceza hukuku uyarınca, bireyler işledikleri tüm savaş suçlarından cezai olarak sorumludur. Otonom silah sistemleri tarafından işlenen savaş suçlarından kimin sorumlu tutulabileceği ise belirsizdir. Silah sistemlerinde yapay zekanın kullanılması; operasyonel kuvvetlerin savaş ortamını anlamak, hedefleri belirlemek, izlemek ve seçmek, onları en uygun etkilerle yok etmek için sensörleri birleştirme yeteneğini geliştirir. Yapay zekanın ölüm zincirini kapatmaya yardımcı olma potansiyeli, insanların kararları ile makinelerin eylemleri arasında hesap verebilirlikte bir boşluk yarattığı ve insanların artık silahlı çatışmalar sırasında alınan kararlardan sorumlu olmadığı endişesini artırdı. Bu çalışma, askeri komutanın tüm savaş yöntem ve araçlarının kullanılmasından her zaman doğrudan ve bireysel olarak sorumlu olduğu için bir boşluk olmadığını göstermektedir. Komutanın askeri sorumluluğu savaş alanını kaplar. Bu sorumluluk, yapay zeka silah sistemlerinin kullanımı da dahil olmak üzere savaşta kullanılan kuvvet yapısına, silah sistemlerine ve taktiklere bağlıdır. Askeri hesap verebilirlik, askeri görevin temelidir ve silahlı çatışma hukukuna veya uluslararası insancıl hukuka uymaya ilişkin yasal yükümlülüğü içerir. Komutan, üstü askeri, sivil liderlere karşı sorumludur ve uluslararası ceza hukuku da dahil olmak üzere askeri düzen ve disiplin yoluyla uygulanan siyasi, kurumsal ve yasal yaptırımlara tabidir. Komutanın doğrudan ve bireysel sorumluluğu doktrini, üst düzey askeri liderlerin, otonom silah sistemlerinin gözetimi, seçimi ve kullanımı dahil olmak üzere hukuk ve liderlik ihlallerinden sorumlu olmasını sağlar. Bu makale, yapay zekanın kullanıldığı otonom silah sistemlerinin, komuta sorumluluğunda yarattığı problemleri inceleyecektir.
Birincil Dil | İngilizce |
---|---|
Bölüm | Makaleler |
Yazarlar | |
Erken Görünüm Tarihi | 31 Mayıs 2023 |
Yayımlanma Tarihi | 31 Mayıs 2023 |
Kabul Tarihi | 29 Mart 2023 |
Yayımlandığı Sayı | Yıl 2023 Cilt: 10 Sayı: 29 |
Akademi Sosyal Bilimler Dergisi Creative Commons Attribution-NonCommercial 4.0 Uluslararası Lisansı ile lisanslanmıştır.