Bu çalışmada son zamanlarda herkesin kullanımına açılmasıyla birlikte son derece popüler hale gelen GPT-3.5 dil modelinin Chat GPT varyantının serbest safsataları tespit etme başarısı sınanmıştır. 127 adet safsata örneği Türkçe yazınındaki bir kitaptan derlenmiştir. Çalışmada iki yöntem kullanılmıştır. Birinci yöntemde doğrudan doğruya safsata örnekleri verilerek Chat GPT’den verilen örnekte bir safsata olup olmadığını varsa hangi tür safsata olduğunu belirtmesi istenmiştir. İkinci yöntemde safsata örnekleriyle birlikte safsatanın türü de verilerek örneklerde belirtilen safsatanın olup olmadığı sorulmuştur. Her iki yöntemde kontrol amaçlı 20 adet safsata içermeyen bir kontrol seti kullanılmıştır. Birinci yöntemde %71,65 duyarlılık ve %85,00 seçicilik başarısı ölçülürken, ikinci yöntemde ise aynı başarılar sırasıyla %85,83 ve %80,00 olarak ölçülmüştür.
In this study, the success of the Chat GPT, the fine tuned model of GPT-3.5 language model, which has recently become extremely popular due to its availability to everyone, in detecting fallacies was tested. 127 fallacy examples were collected from a popular book in Turkish literature. Two methods were used in the study. In the first method, Chat GPT was directly given fallacy examples and asked to indicate whether there is a fallacy in the given example and, if so, what type of fallacy it is. In the second method, along with the fallacy examples, the type of the fallacy was also given and the question was asked whether the fallacy mentioned in the examples exists or not. In both methods, a control set containing 20 fallacy-free samples was used for validation purposes. In the first method, a sensitivity of 71.65% and a specificity of 85.00% were measured, while in the second method, the same success rates were measured as 85.83% and 80.00%, respectively.
Primary Language | Turkish |
---|---|
Subjects | Communication and Media Studies |
Journal Section | Research Article |
Authors | |
Publication Date | January 22, 2024 |
Submission Date | May 17, 2023 |
Acceptance Date | November 27, 2023 |
Published in Issue | Year 2024 Volume: 8 Issue: 1 |
All site content, except where otherwise noted, is licensed under a Creative Common Attribution Licence. (CC-BY-NC 4.0)