ChatGPT ve benzeri yapay zekâ teknolojilerinin hayatımıza bu derece hızlı girdiği günümüzde meselenin hukuki uyum yönü yine tartışmalara sebep olmuştur. Çok büyük miktarda kişisel veri işleyen bu yapay zeka teknolojileri özellikle kişisel verileri koruma hukukunun temel prensipleriyle doğrudan çelişebilmekte ve bu prensipleri ihlal edebilmektedir. ChatGPT gibi diyalog modelleri özünde bir yazılım olmakla birlikte, bu yapay zeka teknolojisinin diğer yazılımlardan belki de ayrılan en önemli özelliği düzenli ve güncel bir şekilde veri ile eğitilmesi gerekmesidir. Başka bir deyişle, veri ChatGPT’nin enerji kaynağıdır ve verilerin bu derece fazla kullanılmadığı bir durumda ChatGPT verimli olmaktan çok uzak olacaktır. İşlenen veriler arasında kişisel veriler de büyük yer tuttuğundan, doğal olarak hukuk birtakım sınırlamalar ve güvenceler öngörecek ve kişileri koruyacaktır. Fakat her zaman olduğu gibi yine teknoloji çok hızlı yol alırken, yasa koyucular meseleyi düzenlerken gecikmektedir. Tam da bu durumda hukukun temel prensipleri en azından asgari korumaları sağlayacak güvenceler içermektedir. Özellikle, sınırlı amaçla veri işleme, verilerin asgarileştirilmesi ilkesi ve şeffaflık prensibi adeta ChatGPT için tasarlanmış gibi muhtemel veri koruma hukuku ihlallerini engelleyici bir role sahiptir. Kişisel veri koruma otoritelerine bu noktada önemli görevler düşmekte ve yapay zekâ teknolojilerinin artılarından mahrum kalmadan, hukuki uyumu sağlayacak tedbirler alınmalıdır. Aksi halde kişiliğin bir parçası olan kişisel verilerin korunması hakkı ChatGPT gibi yapay zekâ teknolojilerinin faydaları karşısında toplumun ve bu teknolojileri üreten şirketlerin gözünde harcanabilir bir hak olarak görülür.
Kişisel verilerin korunması hukukuna ilgi duymamın sebebi olan kıymetli hocam Dr. Cihan Avcı Braun'a ve hukuk perspektifimi genişleten değerli avukatlar Mutlucan Solak, Elçin Karatay ve Begüm Ergin'e teşekkür ediyorum.
In today's world, where artificial intelligence technologies like ChatGPT have rapidly entered our lives, the legal aspect of the issue has once again sparked debates. These artificial intelligence technologies processing a massive amount of personal data are particularly in direct conflict with the fundamental principles of data protection law and violate these principles. While models like ChatGPT are fundamentally software, a distinguishing feature of this artificial intelligence technology is the necessity for regular and up-to-date training with data, setting it apart from many other types of software. In other words, data is the fuel for ChatGPT, and if the model is not regularly exposed to a significant amount of data, ChatGPT will be far from efficient. Given the substantial presence of personal data within the processed information, legal frameworks naturally anticipate a set of limitations and safeguards for the protection of individuals. Nonetheless, in the ever-quickening realm of technology, legislators often find themselves trailing behind in the regulatory landscape. It is precisely in such instances that the foundational principles of law incorporate assurances, albeit minimal, to ensure essential safeguards. In particular, the principle of data limitation, data minimization and the transparency play a role seemingly designed for preventing potential data protection law violations in the case of ChatGPT. At this juncture, significant responsibilities fall upon the data protection authorities, and measures should be taken to ensure legal compliance with artificial intelligence technologies' benefits without deprivation. This includes securing a balance between harnessing the advantages of these technologies and upholding legal standards. Otherwise, the right to the protection of personal data, an integral part of one's personality, might be perceived as a dispensable right in the eyes of both society and the companies which developing technologies like ChatGPT, when weighed against the benefits of artificial intelligence technologies.
Primary Language | Turkish |
---|---|
Subjects | Privacy and Data Rights |
Journal Section | Articles |
Authors | |
Early Pub Date | June 27, 2024 |
Publication Date | June 30, 2024 |
Submission Date | May 28, 2024 |
Acceptance Date | June 27, 2024 |
Published in Issue | Year 2024 Volume: 6 Issue: 1 |