Artificial intelligence technologies, which have become an integral part of our daily lives today, can collect data about the behaviors, preferences and private lives of individuals with different methods and make non-intuitive and unverifiable inferences and predictions. These data collection, processing, modification, transfer and inference processes can cause various legal problems. Artificial intelligence technologies pose great risks and problems, especially in the scope of protecting personal data. Artificial intelligence is able to make discriminatory, prejudiced and invasive decisions by making use of diverse and rich personal data that have unforeseen great value. However, although the personal data protection laws are designed to protect the privacy, identity and autonomy of the people, especially the right to be alone, they fall short in protecting the relevant people from the risks brought by Artificial Intelligence technologies.
Objective: In the study, it is aimed to find the problems that artificial intelligence applications may cause regarding the protection of personal data and to reveal solutions in general terms.
Method: Method: The study is a qualitative study based on the descriptive method.
Findings: In the era of artificial intelligence, there have also been fundamental differences in the nature and severity of violations of personal data. Protection of personal data is an issue closely related to other fundamental rights such as personal rights, privacy, moral integrity, honor and dignity of individuals. Decreasing the quality difference between sensitive data and non-sensitive data in the age of artificial intelligence; likewise, the difference between anonymized data and personal data is reduced. In addition to these, the problem of the quality of the inferences and the bias and discriminatory decisions caused by the inferences are another serious problem. Black box and transparency problems of artificial intelligence algorithms are among the next problems waiting to be solved from a technical point of view. The difficulty of identifying the perpetrator of the violation and the technical difficulty and high cost of obtaining the evidence of the violation are among the main problems that arise within the scope of protection of personal data in the era of artificial intelligence. What needs to be done in the face of these problems is that the data is not only regulated during the collection stage, but also the inferences derived from the data are evaluated within the scope of the protection of personal data. Outdated, ineffective and fluid classifications of personal or non-personal and sensitive or non-sensitive data should be abandoned.
Originality: Looking at the related studies conducted in Turkey, the study examining the problem of protection of personal data, the problems that may arise from artificial intelligence applications and solution proposals from the perspective of law is original.
Günümüzde hayatımızın ayrılmaz bir parçası haline gelen yapay zekâ teknolojileri, bireylerin davranışları, tercihleri ve özel hayatları hakkında farklı yöntemler ile veri toplayıp, doğrulanamayan çıkarımlar ve tahminler yapabilmektedir. Bu verilerin toplanması, işlenmesi, değiştirilmesi, aktarılması ve çıkarım yapılması süreçleri, muhtelif hukuki sorunlara sebep olabilmektedir. Özellikle kişisel verilerin korunması kapsamında yapay zekâ teknolojileri büyük risk ve sorunlar oluşturmaktadır. Yapay zekâ çeşitli ve zengin kişisel verilerden yararlanarak ayrımcı, önyargılı ve “istilacı” kararlar verebilmektedir. Fakat günümüzde kişisel veri koruma kanunları, insanların yalnız kalma hakkı başta olmak üzere insanların mahremiyetini, kimliğini ve özerkliğini korumak için tasarlanmasına rağmen yapay zekâ teknolojilerinin getirdiği risklerinden ilgili kişileri korumada eksik kalınmaktadır.
Amaç: Çalışmada yapay zekâ uygulamalarının kişisel verilerin korumasına dair doğurabileceği sorunları bulmak ve genel anlamda çözüm önerileri ortaya çıkarmak amaçlanmıştır.
Yöntem: Çalışma betimleme yöntemine dayalı niteliksel bir çalışmadır.
Bulgular: Yapay zekâ döneminde, kişisel verilere yönelik ihlallerin niteliği ve ağırlığında da esaslı farklılıklar olmuştur. Kişisel verilerin korunması, kişilik haklarını, özel hayatın gizliliğini, kişilerin manevi bütünlüğünün, şeref ve onurlarının korunması gibi diğer temel haklarla yakın ilgisi olan bir konudur. Yapay zekâ çağında hassas veriler ile hassas olmayan veriler arasındaki nitelik farklılığının azalması; aynı şekilde, anonimleştirilmiş veri ile kişisel veri arasındaki farklılığın da azalması söz konusudur. Bunlara ek olarak, çıkarımların niteliği sorunu ve çıkarımların sebep olduğu önyargı ve ayrımcı kararlar da diğer ciddi bir problemdir. Yapay zekâ algoritmaların kara kutu ve şeffaflık sorunları, teknik açıdan çözülmeyi bekleyen sıradaki problemler arasındadır. İhlal failinin belirlenmesinin güçlüğü ve ihlalin delillerinin elde edilmesinin teknik olarak kolay olmaması ve yüksek maliyetli olması, yapay zekâ döneminde kişisel verilerin koruma kapsamında ortaya çıkan temel problemler arasında yer almaktadır. Bu sorunlar karşısında yapılması gerekenler ise verinin sadece toplanma aşamasında düzenlemelere tabi tutulmayıp, verilerden türetilen çıkarımların da kişisel verilerin korunması kapsamında değerlendirilmesidir. Kişisel veya kişisel olmayan ve hassas veya hassas olmayan verilerin güncel olmayan, etkisiz ve akışkan sınıflandırmalarından vazgeçilmelidir.
Özgünlük: Türkiye’de yapılan ilgili çalışmalara bakıldığında, kişisel verilerin korunması sorunu, yapay zekâ uygulamalarının doğurabileceği sorunlar ve çözüm önerilerini hukuk perspektifinden inceleyen çalışma özgün niteliktedir.
Primary Language | Turkish |
---|---|
Subjects | Law in Context |
Journal Section | Research Articles |
Authors | |
Publication Date | September 30, 2021 |
Submission Date | January 18, 2021 |
Acceptance Date | January 21, 2021 |
Published in Issue | Year 2021 |