Büyük verilerin insan müdahalesi ve denetimi olmaksızın salt algoritmalar tarafından işlenmesiyle elde edilen bireysel kararlar, bunların hukuki niteliği ve muhtemel sonuçları tartışılan en güncel konulardan biridir. Algoritmaların yaygın kullanımı, kişisel verilerin usulsüz şekilde depolanmasına, işlenmesine, paylaşılmasına, bu şekilde temel hakların zedelenmesine ve özelikle ayrımcılığa yol açmaktadır. Bu olumsuz etkilerin ortadan kaldırılması, Türkiye’deki mevcut veri koruma düzenlemelerinde ciddi bir revizyonu gerekli kılmaktadır. Çünkü, algoritma tarafından işlenen salt veri gibi görünmekle birlikte, aslında analize konu edilen çoğu zaman veri öznesinin temel haklarıdır. 6698 sayılı Kişisel Verilerin Korunması Kanunu bazı alanlarda yenilikçi çözümler sunmakla birlikte, ne temel hakların salt algoritmik bireysel kararlarla zedelenmesini engelleyici önlemlere ilişkin, ne de bu tip kararlar sonucunda ortaya çıkan zararların telafisine ilişkin bir hüküm içermektedir. Değerli hocamız Profesör Abdülkadir Arpacı için kaleme aldığım bu makalenin amacı, algoritmik bireysel kararların olumsuz sonuçların mümkün olduğunca önlenmesine ve meydana gelebilecek zararların telafisine yönelik Kanun’da yapılabilecek bir revizyona rehberlik etmek ve değişiklik gerçekleşene kadar mevcut kanun hükümleri ışığında çözümler önermektir.
KVKK kişisel veri yapay zeka algoritmalar otomatik bireysel kararlar ayrımcılık kusursuz sorumluluk
The legal and ethical implications of the use of algorithms in automated decisions made without any human involvement are among the most controversial topics. Indeed, the widespread use of algorithm-based artificial intelligence gives rise to illegal storage, processing and sharing of personal data, and consequently to the violation of fundamental rights, particularly by way of discrimination. The elimination of these negative effects requires a radical revision of the current data protection regulation in Turkey. Although at first glance it seems that algorithms simply process personal data, fundamental rights are actually at stake. While the Law on the Protection of Personal Data No. 6698 presents innovative solutions to several problems of data management, it fails to provide any legal provision designed to prevent the violation of fundamental rights by fully automated individual decisions. Neither does the Law answer the question of how to compensate losses arising out of such decisions. The purpose of this article, which I wrote in this liber amicorum for my highly esteemed colleague Professor Abdülkadir Arpacı, is to provide a guide showing how to change the Law to align it with more progressive models avoiding, to the extent possible, the negative outcomes of algorithmic decision-making, and to suggest solutions based on the existing rules to be used until the Law is modified.
LPPD personal data AI algorithms automated individual decisions discrimination strict liability
Birincil Dil | Türkçe |
---|---|
Konular | Hukuk |
Bölüm | Araştırma Makaleleri |
Yazarlar | |
Yayımlanma Tarihi | 15 Ekim 2021 |
Gönderilme Tarihi | 31 Ekim 2020 |
Yayımlandığı Sayı | Yıl 2021 Cilt: 18 Sayı: 2 |