Research Article
BibTex RIS Cite

PROBLEMS AND SOLUTIONS ABOUT ARTIFICIAL INTELLIGENCE AFFECTING THE PROTECTION OF PERSONAL DATA

Year 2021, , 765 - 782, 30.09.2021
https://doi.org/10.46928/iticusbe.863505

Abstract

Artificial intelligence technologies, which have become an integral part of our daily lives today, can collect data about the behaviors, preferences and private lives of individuals with different methods and make non-intuitive and unverifiable inferences and predictions. These data collection, processing, modification, transfer and inference processes can cause various legal problems. Artificial intelligence technologies pose great risks and problems, especially in the scope of protecting personal data. Artificial intelligence is able to make discriminatory, prejudiced and invasive decisions by making use of diverse and rich personal data that have unforeseen great value. However, although the personal data protection laws are designed to protect the privacy, identity and autonomy of the people, especially the right to be alone, they fall short in protecting the relevant people from the risks brought by Artificial Intelligence technologies.
Objective: In the study, it is aimed to find the problems that artificial intelligence applications may cause regarding the protection of personal data and to reveal solutions in general terms.
Method: Method: The study is a qualitative study based on the descriptive method.
Findings: In the era of artificial intelligence, there have also been fundamental differences in the nature and severity of violations of personal data. Protection of personal data is an issue closely related to other fundamental rights such as personal rights, privacy, moral integrity, honor and dignity of individuals. Decreasing the quality difference between sensitive data and non-sensitive data in the age of artificial intelligence; likewise, the difference between anonymized data and personal data is reduced. In addition to these, the problem of the quality of the inferences and the bias and discriminatory decisions caused by the inferences are another serious problem. Black box and transparency problems of artificial intelligence algorithms are among the next problems waiting to be solved from a technical point of view. The difficulty of identifying the perpetrator of the violation and the technical difficulty and high cost of obtaining the evidence of the violation are among the main problems that arise within the scope of protection of personal data in the era of artificial intelligence. What needs to be done in the face of these problems is that the data is not only regulated during the collection stage, but also the inferences derived from the data are evaluated within the scope of the protection of personal data. Outdated, ineffective and fluid classifications of personal or non-personal and sensitive or non-sensitive data should be abandoned.
Originality: Looking at the related studies conducted in Turkey, the study examining the problem of protection of personal data, the problems that may arise from artificial intelligence applications and solution proposals from the perspective of law is original.

References

  • Akkurt, S. S. (2020). Kişisel Veri Kavramının Hukuki Niteliğine İlişkin Yaklaşımlara Mukayeseli Bir Bakış. Kişisel Verileri Koruma Dergisi, 2(5).
  • Aksoy, H. C. (2008). The Right to Personality and It’s Different Manifestations as the Core of Personal Data. Ankara Law Review, 5(2).
  • Arnold, B. (2018, 10 22). Netflix User Anger over ‘racial Targeting’ of Movie Posters. 01 05, 2021 tarihinde Yahoo: https://www.yahoo.com/entertainment/netflix-users-anger-racial-targeting-movie-posters 104325948.html adresinden alındı
  • Article 29 Data Protection Working Party. (2018). Guidelines on Personal data breach notification under Regulation 2016/679. Brussels: European Commission.
  • Bates, R., & Blackmore, N. (2017). The Privacy Challenges of Big Data and Artificial Intelligence. KennedysLaw.
  • Buttarelli, G. (2016). A Smart Approach: Counteract The Bias in Artificial Intelligence. 12 05, 2020 tarihinde Europa: https://edps.europa.eu/press-publications/press-news/blog/smart-approach-counteract-bias-artificial-intelligence_en adresinden alındı
  • Civelek, D. Y. (2011). Kişisel Verilerin Korunması ve Bir Kurumsal Yapılanma Önerisi̇. Ankara: Bilgi̇ Toplumu Dairesi̇ Başkanlığı.
  • Cook, H. H. (2018, 08 25). Facebook Accused of Targeting Young LGBT Users with ‘gay Cure’ Adverts. 01 05, 2021 tarihinde telegraph: https://www.telegraph.co.uk/news/2018/08/25/facebook-accused-targeting-young-lgbt-users-gay-cure-adverts/ adresinden alındı
  • Cook, J. (2018, 10 09). Amazon Patents New Alexa Feature That Knows When You’re Ill and Offers You Medicine. 12 08, 2020 tarihinde telegraph: https://www.telegraph.co.uk/technology/2018/10/09/amazon-patents-new-alexa-feature-knows-offers-medicine/ adresinden alındı
  • CPDP. (2019, 02 11). Profiling, Microtargeting and A Right to Reasonable Algorithmic Inferences. youtube: https://www.youtube.com/watch?v=nN_sGuNhaOM adresinden alındı
  • Cukier, K. (2014, 6). Big Data is Better Data. 01 08, 2021 tarihinde TED: www.ted.com/talks/kenneth_cukier_big_data_is_better_data adresinden alındı
  • European Commission. (2007). Article 29 Working Party Opinion 4/2007 on the Concept of Personal Data. Brussels: European Commission.
  • Hanhua, Z. (2018). Kişisel Bilgilerin Korunması Kanunu (Uzman Öneri Taslağı) ve Mevzuat Araştırma Raporu (个人信息保护法(专家建议稿)及立法研究报告). Pekin: Kanun Yayınları.
  • Hatemi, H. (2018). Kişiler Hukuku. İstanbul: On İki Levha.
  • Hildebrandt, M. (2018). Profiling and the Identity of the European Citizen. İn profiling the european citizen. Springer Dordrecht, 303–343.
  • House of Commons, Science and Technology Committee. (2016). Robotics And Artificial Intelligence: Fifth Report of Session. https://www.publications.parliament.uk/pa/cm201617/ cmselect/cmsctech/145/145.pdf adresinden alındı
  • Ishii, K. (2019). Comparative Legal Study on Privacy and Personal Data Protection for Robots Equipped with Artificial Intelligence: Looking at Functional and Technological Aspects. AI & Soc(34), s. 509 – 533.
  • Kathleen Egan, Margaret Hackett ve Avrupa Parlamentosu, T‐190/10 (Genel Mahkeme'nin (Beşinci Daire) 5 28, 2012).
  • Kızrak, A. (2020, 12 05). Açıklanabilir, Sorumlu ve Güvenilir Yapay Zekâ. Medium: https://ayyucekizrak.medium.com/a%C3%A7%C4%B1klanabilir-sorumlu-ve-g%C3%BCvenilir-yapay-zeka-bece897c5ea9 adresinden alındı
  • Lingjie, K. (2019). Kişisel Veri Gizliliğinin Korunması (个人资料隐私的法律保护). Wuhan: Wuhan Üniversitesi Yayınları.
  • Mittelstadt, B. (2017). From Individusal to Group Privacy in Big Data Analytics. Philosophy & Technology, 475–494.
  • Norvig, P., & Russell, S. J. (2016). Artificial Intelligence: A Moderin Approach. New Jersey: Prentice Hall.
  • Nott, G. (2017). Explainable Artificial Intelligence’: Cracking Open the Black Box of AI. Computer World.
  • Ohm, P. (2009). Broken Promises of Privacy: Responding to the Surprising Failure of Anonymization. UCLA Law Review, 1701–1777.
  • Oktay, M. (2020, 06 11). Amazon'dan Yüz Tanıma Teknolojisinin Polis Tarafından Kullanımına Erteleme Kararı. AA: https://www.aa.com.tr/tr/dunya/amazondan-yuz-tanima-teknolojisinin-polis-tarafindan-kullanimina-erteleme-karari/1872922 adresinden alındı
  • Okur, N. (2010). Anayasa Hukuku Açısından Özel Hayatın Gizliliği ve Korunması. Gazi Üniversitesi Sosyal Bilimler Enstitüsü Yayınlanmamış Doktora Tezi.
  • Otterlo, V. (2013). A machine learning view on profiling. Privacy, Due Process and The Computational Turn: Philosophers of Law Meet Philosophers of Technology (s. 41–64). London: Routledge.
  • Özdaş, M., Akıncı, A., & Türkkan, A. (2020). Yapay Zeka ve Hukuk 4.0: Yapay Zekanın Hukuk Uygulamalarına Etkisi. M. K. İyigün içinde, Oyun Değiştiren Yapay Zeka. İstanbul: Beta Yayıncılık.
  • Peter Nowak v Data Protection Commissioner, C‐434/16 (ABAD 02 26, 2018).
  • Protalinski, E. (2011, 10 12). Facebook: Releasing Your Personal Data Reveals Our Trade Secrets. zdnet: https://www.zdnet.com/article/facebook-releasing-your-personal-data-reveals-our-trade-secrets/#:~:text=ZDNet%20Academy-,Facebook%3A%20Releasing%20your%20personal%20data%20reveals%20our%20trade%20secrets,trade%20secrets%20and%20intellectual%20property adresinden alındı
  • Schönberger, V. M., & Cukier, K. (2013). Büyük Veri: Yaşama, Çalışma ve Düşünme Şeklimizi Dönüştürecek Bir Devrim. İstanbul: Paloma Yayınları.
  • The Economist. (2016). Artificial Intelligence: Ethics, Frankenstein’s Paperclips.
  • Varkonyi, G. G. (2018). Robots with AI: Privacy Considerations in the Era of Robotics. Law 4.0 (s. 1-12). Györ: Széchenyi István University.
  • Wachter, S. (2017). Normative Challenges of Identification in the Internet of Things: Privacy, Profiling, Discrimination, and the GDPR. Computer Law Security Review, 436–449.
  • Wachter, S. (2018). The GDPR and the Internet of Things: A Three-Step Transparency Model. Law Innovasion Technol, 266-294.
  • Wachter, S. (2019). Data Protection in the Age of Big Data. Nature Electronics, 6-7.
  • Weigang, L. (2020). 人工智能时代对个人数据法律保护的挑战 (Yapay Zeka Çağında Kişisel Verilerin Yasal Olarak Korunmasının Önündeki Zorluklar). 法制博览, 168 – 171.
  • Yangyang, W. (2020, 06 19). IBM宣布退出人脸识别,是道德楷模还是商业投机?. Sina: https://tech.sina.com.cn/i/2020-06-19/doc-iircuyvi9289158.shtml?cref=cj adresinden alındı
  • YS ve Diğerleri, C-141/12 (ABAD 07 17, 2014).
  • Zarsky, T. (2017). Incompatible: The GDPR in the Age of Big Data. Seton Hall Law Review, 47(4(2)).

YAPAY ZEKÂ UYGULAMALARININ KİŞİSEL VERİLERİN KORUMASINA DAİR DOĞURABİLECEĞİ SORUNLAR VE ÇÖZÜM ÖNERİLERİ

Year 2021, , 765 - 782, 30.09.2021
https://doi.org/10.46928/iticusbe.863505

Abstract

Günümüzde hayatımızın ayrılmaz bir parçası haline gelen yapay zekâ teknolojileri, bireylerin davranışları, tercihleri ve özel hayatları hakkında farklı yöntemler ile veri toplayıp, doğrulanamayan çıkarımlar ve tahminler yapabilmektedir. Bu verilerin toplanması, işlenmesi, değiştirilmesi, aktarılması ve çıkarım yapılması süreçleri, muhtelif hukuki sorunlara sebep olabilmektedir. Özellikle kişisel verilerin korunması kapsamında yapay zekâ teknolojileri büyük risk ve sorunlar oluşturmaktadır. Yapay zekâ çeşitli ve zengin kişisel verilerden yararlanarak ayrımcı, önyargılı ve “istilacı” kararlar verebilmektedir. Fakat günümüzde kişisel veri koruma kanunları, insanların yalnız kalma hakkı başta olmak üzere insanların mahremiyetini, kimliğini ve özerkliğini korumak için tasarlanmasına rağmen yapay zekâ teknolojilerinin getirdiği risklerinden ilgili kişileri korumada eksik kalınmaktadır.
Amaç: Çalışmada yapay zekâ uygulamalarının kişisel verilerin korumasına dair doğurabileceği sorunları bulmak ve genel anlamda çözüm önerileri ortaya çıkarmak amaçlanmıştır.
Yöntem: Çalışma betimleme yöntemine dayalı niteliksel bir çalışmadır.
Bulgular: Yapay zekâ döneminde, kişisel verilere yönelik ihlallerin niteliği ve ağırlığında da esaslı farklılıklar olmuştur. Kişisel verilerin korunması, kişilik haklarını, özel hayatın gizliliğini, kişilerin manevi bütünlüğünün, şeref ve onurlarının korunması gibi diğer temel haklarla yakın ilgisi olan bir konudur. Yapay zekâ çağında hassas veriler ile hassas olmayan veriler arasındaki nitelik farklılığının azalması; aynı şekilde, anonimleştirilmiş veri ile kişisel veri arasındaki farklılığın da azalması söz konusudur. Bunlara ek olarak, çıkarımların niteliği sorunu ve çıkarımların sebep olduğu önyargı ve ayrımcı kararlar da diğer ciddi bir problemdir. Yapay zekâ algoritmaların kara kutu ve şeffaflık sorunları, teknik açıdan çözülmeyi bekleyen sıradaki problemler arasındadır. İhlal failinin belirlenmesinin güçlüğü ve ihlalin delillerinin elde edilmesinin teknik olarak kolay olmaması ve yüksek maliyetli olması, yapay zekâ döneminde kişisel verilerin koruma kapsamında ortaya çıkan temel problemler arasında yer almaktadır. Bu sorunlar karşısında yapılması gerekenler ise verinin sadece toplanma aşamasında düzenlemelere tabi tutulmayıp, verilerden türetilen çıkarımların da kişisel verilerin korunması kapsamında değerlendirilmesidir. Kişisel veya kişisel olmayan ve hassas veya hassas olmayan verilerin güncel olmayan, etkisiz ve akışkan sınıflandırmalarından vazgeçilmelidir.
Özgünlük: Türkiye’de yapılan ilgili çalışmalara bakıldığında, kişisel verilerin korunması sorunu, yapay zekâ uygulamalarının doğurabileceği sorunlar ve çözüm önerilerini hukuk perspektifinden inceleyen çalışma özgün niteliktedir.

References

  • Akkurt, S. S. (2020). Kişisel Veri Kavramının Hukuki Niteliğine İlişkin Yaklaşımlara Mukayeseli Bir Bakış. Kişisel Verileri Koruma Dergisi, 2(5).
  • Aksoy, H. C. (2008). The Right to Personality and It’s Different Manifestations as the Core of Personal Data. Ankara Law Review, 5(2).
  • Arnold, B. (2018, 10 22). Netflix User Anger over ‘racial Targeting’ of Movie Posters. 01 05, 2021 tarihinde Yahoo: https://www.yahoo.com/entertainment/netflix-users-anger-racial-targeting-movie-posters 104325948.html adresinden alındı
  • Article 29 Data Protection Working Party. (2018). Guidelines on Personal data breach notification under Regulation 2016/679. Brussels: European Commission.
  • Bates, R., & Blackmore, N. (2017). The Privacy Challenges of Big Data and Artificial Intelligence. KennedysLaw.
  • Buttarelli, G. (2016). A Smart Approach: Counteract The Bias in Artificial Intelligence. 12 05, 2020 tarihinde Europa: https://edps.europa.eu/press-publications/press-news/blog/smart-approach-counteract-bias-artificial-intelligence_en adresinden alındı
  • Civelek, D. Y. (2011). Kişisel Verilerin Korunması ve Bir Kurumsal Yapılanma Önerisi̇. Ankara: Bilgi̇ Toplumu Dairesi̇ Başkanlığı.
  • Cook, H. H. (2018, 08 25). Facebook Accused of Targeting Young LGBT Users with ‘gay Cure’ Adverts. 01 05, 2021 tarihinde telegraph: https://www.telegraph.co.uk/news/2018/08/25/facebook-accused-targeting-young-lgbt-users-gay-cure-adverts/ adresinden alındı
  • Cook, J. (2018, 10 09). Amazon Patents New Alexa Feature That Knows When You’re Ill and Offers You Medicine. 12 08, 2020 tarihinde telegraph: https://www.telegraph.co.uk/technology/2018/10/09/amazon-patents-new-alexa-feature-knows-offers-medicine/ adresinden alındı
  • CPDP. (2019, 02 11). Profiling, Microtargeting and A Right to Reasonable Algorithmic Inferences. youtube: https://www.youtube.com/watch?v=nN_sGuNhaOM adresinden alındı
  • Cukier, K. (2014, 6). Big Data is Better Data. 01 08, 2021 tarihinde TED: www.ted.com/talks/kenneth_cukier_big_data_is_better_data adresinden alındı
  • European Commission. (2007). Article 29 Working Party Opinion 4/2007 on the Concept of Personal Data. Brussels: European Commission.
  • Hanhua, Z. (2018). Kişisel Bilgilerin Korunması Kanunu (Uzman Öneri Taslağı) ve Mevzuat Araştırma Raporu (个人信息保护法(专家建议稿)及立法研究报告). Pekin: Kanun Yayınları.
  • Hatemi, H. (2018). Kişiler Hukuku. İstanbul: On İki Levha.
  • Hildebrandt, M. (2018). Profiling and the Identity of the European Citizen. İn profiling the european citizen. Springer Dordrecht, 303–343.
  • House of Commons, Science and Technology Committee. (2016). Robotics And Artificial Intelligence: Fifth Report of Session. https://www.publications.parliament.uk/pa/cm201617/ cmselect/cmsctech/145/145.pdf adresinden alındı
  • Ishii, K. (2019). Comparative Legal Study on Privacy and Personal Data Protection for Robots Equipped with Artificial Intelligence: Looking at Functional and Technological Aspects. AI & Soc(34), s. 509 – 533.
  • Kathleen Egan, Margaret Hackett ve Avrupa Parlamentosu, T‐190/10 (Genel Mahkeme'nin (Beşinci Daire) 5 28, 2012).
  • Kızrak, A. (2020, 12 05). Açıklanabilir, Sorumlu ve Güvenilir Yapay Zekâ. Medium: https://ayyucekizrak.medium.com/a%C3%A7%C4%B1klanabilir-sorumlu-ve-g%C3%BCvenilir-yapay-zeka-bece897c5ea9 adresinden alındı
  • Lingjie, K. (2019). Kişisel Veri Gizliliğinin Korunması (个人资料隐私的法律保护). Wuhan: Wuhan Üniversitesi Yayınları.
  • Mittelstadt, B. (2017). From Individusal to Group Privacy in Big Data Analytics. Philosophy & Technology, 475–494.
  • Norvig, P., & Russell, S. J. (2016). Artificial Intelligence: A Moderin Approach. New Jersey: Prentice Hall.
  • Nott, G. (2017). Explainable Artificial Intelligence’: Cracking Open the Black Box of AI. Computer World.
  • Ohm, P. (2009). Broken Promises of Privacy: Responding to the Surprising Failure of Anonymization. UCLA Law Review, 1701–1777.
  • Oktay, M. (2020, 06 11). Amazon'dan Yüz Tanıma Teknolojisinin Polis Tarafından Kullanımına Erteleme Kararı. AA: https://www.aa.com.tr/tr/dunya/amazondan-yuz-tanima-teknolojisinin-polis-tarafindan-kullanimina-erteleme-karari/1872922 adresinden alındı
  • Okur, N. (2010). Anayasa Hukuku Açısından Özel Hayatın Gizliliği ve Korunması. Gazi Üniversitesi Sosyal Bilimler Enstitüsü Yayınlanmamış Doktora Tezi.
  • Otterlo, V. (2013). A machine learning view on profiling. Privacy, Due Process and The Computational Turn: Philosophers of Law Meet Philosophers of Technology (s. 41–64). London: Routledge.
  • Özdaş, M., Akıncı, A., & Türkkan, A. (2020). Yapay Zeka ve Hukuk 4.0: Yapay Zekanın Hukuk Uygulamalarına Etkisi. M. K. İyigün içinde, Oyun Değiştiren Yapay Zeka. İstanbul: Beta Yayıncılık.
  • Peter Nowak v Data Protection Commissioner, C‐434/16 (ABAD 02 26, 2018).
  • Protalinski, E. (2011, 10 12). Facebook: Releasing Your Personal Data Reveals Our Trade Secrets. zdnet: https://www.zdnet.com/article/facebook-releasing-your-personal-data-reveals-our-trade-secrets/#:~:text=ZDNet%20Academy-,Facebook%3A%20Releasing%20your%20personal%20data%20reveals%20our%20trade%20secrets,trade%20secrets%20and%20intellectual%20property adresinden alındı
  • Schönberger, V. M., & Cukier, K. (2013). Büyük Veri: Yaşama, Çalışma ve Düşünme Şeklimizi Dönüştürecek Bir Devrim. İstanbul: Paloma Yayınları.
  • The Economist. (2016). Artificial Intelligence: Ethics, Frankenstein’s Paperclips.
  • Varkonyi, G. G. (2018). Robots with AI: Privacy Considerations in the Era of Robotics. Law 4.0 (s. 1-12). Györ: Széchenyi István University.
  • Wachter, S. (2017). Normative Challenges of Identification in the Internet of Things: Privacy, Profiling, Discrimination, and the GDPR. Computer Law Security Review, 436–449.
  • Wachter, S. (2018). The GDPR and the Internet of Things: A Three-Step Transparency Model. Law Innovasion Technol, 266-294.
  • Wachter, S. (2019). Data Protection in the Age of Big Data. Nature Electronics, 6-7.
  • Weigang, L. (2020). 人工智能时代对个人数据法律保护的挑战 (Yapay Zeka Çağında Kişisel Verilerin Yasal Olarak Korunmasının Önündeki Zorluklar). 法制博览, 168 – 171.
  • Yangyang, W. (2020, 06 19). IBM宣布退出人脸识别,是道德楷模还是商业投机?. Sina: https://tech.sina.com.cn/i/2020-06-19/doc-iircuyvi9289158.shtml?cref=cj adresinden alındı
  • YS ve Diğerleri, C-141/12 (ABAD 07 17, 2014).
  • Zarsky, T. (2017). Incompatible: The GDPR in the Age of Big Data. Seton Hall Law Review, 47(4(2)).
There are 40 citations in total.

Details

Primary Language Turkish
Subjects Law in Context
Journal Section Research Articles
Authors

Yiliyaer Abudureyımu 0000-0003-2706-252X

Yucel Ogurlu 0000-0001-7922-9841

Publication Date September 30, 2021
Submission Date January 18, 2021
Acceptance Date January 21, 2021
Published in Issue Year 2021

Cite

APA Abudureyımu, Y., & Ogurlu, Y. (2021). YAPAY ZEKÂ UYGULAMALARININ KİŞİSEL VERİLERİN KORUMASINA DAİR DOĞURABİLECEĞİ SORUNLAR VE ÇÖZÜM ÖNERİLERİ. İstanbul Ticaret Üniversitesi Sosyal Bilimler Dergisi, 20(41), 765-782. https://doi.org/10.46928/iticusbe.863505