Gelişen yapay zekâ teknolojileri arasında yer alan Generative AI (GenAI) sistemleri, siber güvenlik alanında hem savunma hem de saldırı amaçlı olarak önemli bir rol oynamaya başlamıştır. Bu çalışma, GenAI’nin siber güvenlik alanındaki etik risklerini sistematik bir şekilde analiz etmeyi amaçlamaktadır. Çalışmada öncelikle GenAI’nin siber güvenlikteki kullanım alanlarına yönelik literatür taraması yapılmış, ardından etik, gri alan ve etik dışı kullanım senaryoları geliştirilerek uygulamalı deneyler gerçekleştirilmiştir. OpenAI ChatGPT ve DeepSeek gibi büyük dil modelleri (LLM) kullanılarak her senaryo ayrı ayrı test edilmiş; doğruluk oranları, yanlış pozitif oranları ve etik riskler gibi metrikler analiz edilmiştir. Uygulamalı sonuçlar, GenAI tabanlı sistemlerin, güvenlik tehditlerini erken tespit etmede yüksek doğruluk oranlarına ulaşabildiğini ancak aynı zamanda bireysel gizlilik ihlalleri, yanıltıcı içerik üretimi ve kötü amaçlı kullanım gibi ciddi etik sorunlar doğurabileceğini göstermiştir. Çalışmanın bulguları, Generative AI teknolojilerinin siber güvenlikte güvenli ve etik kullanımını sağlamak için daha güçlü politika düzenlemeleri, teknik sınırlamalar ve etik çerçevelerin geliştirilmesi gerektiğini vurgulamaktadır. Elde edilen sonuçlar ayrıca, hem savunma hem de saldırı perspektiflerinden GenAI sistemlerinin nasıl yönetilmesi gerektiğine dair akademik literatüre ve uygulayıcılara önemli katkılar sunmaktadır.
Generative AI(GenAI) systems, which are among the emerging artificial intelligence technologies, have started to play an important role in the field of cyber security for both defense and attack purposes. This study aims to systematically analyze the ethical risks of GenAI in cybersecurity. In the study, firstly, a literature review on the usage areas of GenAI in cybersecurity was conducted, then ethical, gray area and unethical usage scenarios were developed and applied experiments were carried out. Each scenario was tested separately using large language models(LLM) such as OpenAI ChatGPT and DeepSeek, and metrics such as accuracy rates, false positive rates and ethical risks were analyzed. The applied results have shown that GenAI-based systems can achieve high accuracy rates in early detection of security threats, but at the same time, they can cause serious ethical issues such as individual privacy violations, misleading content production, and malicious use. The findings of the study emphasize the need for stronger policy regulations, technical limitations, and ethical frameworks to ensure the safe and ethical use of Generative AI technologies in cybersecurity. The results also provide significant contributions to the academic literature and practitioners on how GenAI systems should be managed from both defensive and offensive perspectives.
Primary Language | English |
---|---|
Subjects | Cybersecurity Policy, Artificial Intelligence (Other) |
Journal Section | Research Article |
Authors | |
Early Pub Date | June 26, 2025 |
Publication Date | June 30, 2025 |
Submission Date | May 8, 2025 |
Acceptance Date | June 5, 2025 |
Published in Issue | Year 2025 Volume: 1 Issue: 1 |