Rinoplasti Sık Sorulan Sorularına Yapay Zekâ Yanıtlarının Uzman Onaylı Karşılaştırması
Abstract
Amaç: ChatGPT-4, DeepSeek ve Gemini gibi büyük dil modelleri (LLM'ler), hasta eğitimi ve klinik karar desteği için giderek daha fazla araştırılmaktadır. Ancak, özellikle postoperatif bakımda sıkça sorulan hasta sorularına yanıt verirken, bu modellerin doğruluk, bütünlük ve okunabilirlik açısından yeterliliği hâlâ sorgulanmaktadır. Bu çalışmanın birincil amacı, üç önde gelen yapay zekâ modelini—ChatGPT-4, DeepSeek ve Gemini—postoperatif rinoplastiyle ilgili sık sorulan sorulara verdikleri yanıtların doğruluk, anlaşılırlık, ilgili olma durumu ve tamlık açısından karşılaştırmaktır. İkincil amaç ise, bu modellerin verdiği yanıtların genel hasta kitlesi için okunabilirliğini değerlendirmektir.
Yöntem: Amerikan Kulak Burun Boğaz ve Baş Boyun Cerrahisi Akademisi’nin (AAO-HNS) rehberlerine dayalı olarak 14 sık sorulan soru seçilmiştir. Her bir yapay zekâ modelinin verdiği yanıtlar, 15 uzman kulak burun boğaz hekimi tarafından, 5 dereceli Likert ölçeği kullanılarak dört temel alanda değerlendirilmiştir: doğruluk, anlaşılırlık, ilgili olma ve tamlık. Okunabilirlik değerlendirmesi için Flesch Okunabilirlik Puanı (FRES) ve Flesch–Kincaid Sınıf Düzeyi (FKGL) kullanılmıştır. Modeller arasındaki farkları belirlemek amacıyla uygun istatistiksel testler uygulanmıştır.
Bulgular: Uzman değerlendirmeleri, modeller arasında anlamlı performans farklılıkları olduğunu göstermiştir. DeepSeek modeli, doğruluk (p=0.00003) ve tamlık (p=0.0042) açısından ChatGPT-4 ve Gemini’ye kıyasla anlamlı şekilde düşük puan almıştır. Anlaşılırlık (p=0.52) ve ilgili olma (p=0.42) açısından ise anlamlı bir fark bulunmamıştır. Okunabilirlik puanları modeller arasında anlamlı farklılık göstermemiş olsa da, tüm yanıtlar ortalama bir hastanın tamamen anlayabileceği düzeyin üzerindeydi.
Sonuç: ChatGPT-4 ve Gemini, doğruluk ve tamlık açısından DeepSeek’e kıyasla daha iyi performans göstermiştir. Ancak, değerlendirilen hiçbir yapay zekâ modeli, hasta eğitimi için gerekli olan temel okunabilirlik kriterlerini karşılayamamıştır. Bu bulgular, yapay zekâ içeriklerinin daha erişilebilir hale getirilmesi ve insan denetiminin devam etmesi gerekliliğini vurgulamaktadır. Çalışmamız, bu alanda önemli bir kıyaslama sunmakta ve gelecekteki yapay zekâ geliştirmelerinde bilgisel doğruluk kadar hasta anlayışının da önceliklendirilmesi gerektiğini ortaya koymaktadır.
Keywords
Yapay Zekâ, Büyük Dil Modelleri, Rinoplasti, Ameliyat Sonrası Bakım, Anlama
EXPERT EVALUATION OF ARTIFICIAL INTELLIGENCE GENERATED ANSWERS TO FREQUENTLY ASKED QUESTIONS ABOUT RHINOPLASTY
Abstract
Aim: Large language models (LLMs) such as ChatGPT-4, DeepSeek, and Gemini are increasingly explored as tools for patient education and clinical decision support. However, concerns remain regarding their factual accuracy, completeness, and readability, especially when addressing frequently asked patient questions in postoperative care. This study aimed to directly compare three leading AI models—ChatGPT-4, DeepSeek, and Gemini—in terms of their accuracy, clarity, relevance, and completeness when answering common postoperative rhinoplasty FAQs. A secondary objective was to assess the readability of these AI-generated responses for a general patient audience.
Method: We selected 14 frequently asked questions based on authoritative AAO-HNS guidelines. Responses from each AI model were independently evaluated by 15 board-certified otorhinolaryngologists using a 5-point Likert scale across four domains: accuracy, clarity, relevance, and completeness. Readability was measured using the Flesch Reading Ease Score and Flesch–Kincaid Grade Level. Data were analyzed using appropriate statistical tests to identify significant differences among the models.
Results: Expert evaluations showed significant performance differences among the models. DeepSeek underperformed in both accuracy (p=0.00003) and completeness (p=0.0042) compared to ChatGPT-4 and Gemini. No statistically significant differences were observed for clarity (p=0.52) or relevance (p=0.42). Although readability scores did not significantly differ across models, all responses were deemed too complex for the average patient to fully understand.
Conclusion: While ChatGPT-4 and Gemini demonstrated higher accuracy and completeness than DeepSeek, none of the evaluated AI models produced content that met essential patient readability standards. These findings underscore the need for improved content accessibility and ongoing human oversight before LLMs can be reliably integrated into clinical patient education. This study establishes an important benchmark and highlights the urgency for future AI development to prioritize both factual integrity and true patient comprehension.
Keywords
Artificial Intelligence, Large Language Models, Rhinoplasty, Postoperative Care, Comprehension