Makine öğrenimi algoritmaları; büyük miktarda bilgiyi anlamlandırma, karar verme modellerini tespit etme ve anormallikleri insanlardan daha iyi belirleme özelliklerine sahiptir. Önümüzdeki on yıllarda orduların savaşın birçok alanında tahmine dayalı algoritmalara, makine öğrenme teknolojisine ve yapay zekâya büyük ölçüde güveneceği tahmin edilmektedir. Askeri operatörler, programcılar ve hukukçular, silahlı çatışma hukukuna uygun karar destek algoritmaları oluşturmaya çalışırken çeşitli zorluklarla karşılaşacaklardır. Hukukçuların algoritmaların yeteneklerini, gereksinimlerini ve sınırlarını anlamaları gerekirken programcıların savaş hukukunun temellerini ve orduların baskı altında savaş hukuku ile belirlenmiş kararları nasıl aldıklarını öğrenmesi gerekecektir. Bu makale, bu aktörlerin üç aşamalı bir süreç izlemesi gerektiğini savunmaktadır: (1) uygulanacak hukuku belirlemek; (2) hukuki çerçeveyle ilgili tavsiye üretecek faktörler etrafında algoritmayı hazırlamak ve eğitmek; (3) algoritmik tahminleri, uygulanacak hukuk bağlamında yorumlamak. Bu işlemlerle ulaşılmak istenen amaç; hukuka duyarlı, veriye dayalı, hukukçuların ve operatörlerin harekete geçebileceği algoritmik öneriler üretmek olmalıdır. Hukuka uygun olarak hassas tahmin algoritmaları oluşturma çabaları, devletlerin savaş hukuku ve insan hakları hukukunun kurallarını yorumlamayı taahhüt ettiği kurumlar arası süreç türlerini değiştirebilir ve orduları şu anda yalnızca insan analizlerini nasıl üstlendiklerini yeniden değerlendirmeye teşvik edebilir.
Yapay Zeka Makine Öğrenmesi Tahmine Dayalı Algoritmalar Uluslararası Hukuk Silahlı Çatışma Hukuku
In the light of developments in military technologies, armies are actively using artificial intelligence technology in order to make fast and accurate decisions on data. Algorithms have reached the level of development to decide who should be detained, set targets, and decide. In the literature, autonomous weapon systems have been evaluated mostly in terms of international humanitarian law. However, in this study, the concepts of algorithmic target construction, autonomous weapon systems, and detention by algorithms were examined in terms of the positive obligations of states to protect human rights, specifically the right to life and the right to privacy. There are two main research questions that were examined in this article. First, to what extent is it possible and reliable to convert legal concepts into computer code? Second, is it possible to trust the decisions taken by the algorithms and the predictions they make and to check their compliance with the law? This study supported the view that the use of autonomous weapon systems and algorithms without meaningful human control to identify targets using machine learning and artificial intelligence technologies will not be compatible with international human rights law and international humanitarian law.
Artificial Intelligence Machine Learning Predictive Algorithms International Law Law of Armed Conflict
Birincil Dil | Türkçe |
---|---|
Bölüm | Araştırma Makaleleri |
Yazarlar | |
Erken Görünüm Tarihi | 27 Aralık 2022 |
Yayımlanma Tarihi | 27 Aralık 2022 |
Gönderilme Tarihi | 8 Temmuz 2022 |
Yayımlandığı Sayı | Yıl 2022 Sayı: 8 |
Title of the Journal in Turkish: Iğdır Üniversitesi İktisadi ve İdari Bilimler Fakültesi Dergisi
Title of the Journal in English: Iğdır University Journal of Economics and Administrative Sciences
Abbreviated Title of the Journal: Iğdır iibf dergisi