TY - JOUR T1 - A New Ally in HPV and Cervical Cancer Screening: Age-Tailored Scenario-Based Analysis of ChatGPT TT - HPV ve Servikal Kanser Taramasında Yeni Müttefik: ChatGPT’nin Yaşa Duyarlı Senaryo Bazlı Analizi AU - Akdemir, Celal PY - 2025 DA - September Y2 - 2025 JF - Türk Jinekolojik Onkoloji Dergisi JO - TRSGO Dergisi PB - Türk Jinekolojik Onkoloji Derneği WT - DergiPark SN - 2148-5372 SP - 24 EP - 32 VL - 25 IS - 2 LA - en AB - Introduction: In recent years, large language models such as ChatGPT have gained increasing attention in the field of health education. However, their reliability in providing age-sensitive, accurate, and guideline-compliant information on human papillomavirus (HPV) and cervical cancer screening has not been sufficiently investigated. This study aimed to evaluate the performance of ChatGPT-4 in terms of informativeness and guideline compliance when responding to HPV and cervical screening questions tailored to different age scenariosMethods: Thirty questions were developed based on three age scenarios (18, 30, and 45 years). Each question was submitted to the June 2025 version of ChatGPT-4. The responses were independently evaluated by a five-member panel consisting of three gynecologic oncology surgeons, one infectious diseases specialist, and one public health specialist. Evaluation was based on four criteria: scientific accuracy, clinical guideline compliance, comprehensibility (ease of understanding), and public health reliability. The term “comprehensibility” was used consistently throughout the study instead of “clarity”. Each criterion was rated on a 5-point Likert scale.Results: The overall mean score across all criteria was 4.19 ± 0.51. The highest mean score was for guideline consistency (4.22 ± 0.48), followed by public health reliability (4.20 ± 0.54), scientific accuracy (4.19 ± 0.50), and comprehensibility (4.16 ± 0.53). The 30-year-old scenario received the highest overall scores, particularly for scientific accuracy (4.34) and guideline consistency (4.26). The 18-year-old scenario scored highest in comprehensibility (4.28) but slightly lower in public health reliability (4.12). The 45-year-old scenario achieved the highest public health reliability score (4.32) but had marginally lower ratings for scientific accuracy (4.16) and comprehensibility (4.10). Expert comments highlighted ChatGPT’s strengths in health communication and combating misinformation, while pointing out the lack of clinical details and explicit guideline references in some responses.Conclusion: ChatGPT-4 appears to be an effective tool for promoting HPV vaccination and providing public health information, particularly in younger age groups. However, due to its limitations in clinical decision-making and guideline-based content, its use in patient education should be accompanied by expert oversight. Further research should encompass different model versions, additional evaluation metrics, and user perspectives. KW - ChatGPT KW - Large Language Models KW - HPV KW - Cervical Cancer Screening KW - Age-Sensitive Information KW - Scenario-Based Analysis KW - Expert Evaluation KW - Health Education KW - Public Health Communication KW - Clinical Guideline Compliance N2 - Giriş: Son yıllarda ChatGPT gibi büyük dil modelleri sağlık eğitiminde önemli bir ilgi odağı haline gelmiştir. Ancak insan papilloma virüsü (HPV) ve serviks kanseri taramasında yaşa duyarlı, doğru ve kılavuza uyumlu bilgi sunmadaki güvenilirliği yeterince incelenmemiştir. Bu çalışma, farklı yaş senaryolarına uyarlanmış HPV ve servikal tarama sorularına ChatGPT-4’ün verdiği yanıtların bilgilendiricilik ve kılavuza uyum açısından performansını değerlendirmeyi amaçladı.Yöntem: On sekiz, otuz ve kırk beş yaş olmak üzere üç yaş senaryosuna dayalı otuz soru hazırlandı. Her soru, ChatGPT-4’ün Haziran 2025 sürümüne sunuldu. Yanıtlar; üç jinekolojik onkoloji cerrahı, bir enfeksiyon hastalıkları uzmanı ve bir halk sağlığı uzmanından oluşan beş kişilik bir panel tarafından bağımsız olarak değerlendirildi. Değerlendirme; bilimsel doğruluk, klinik kılavuza uyum, anlaşılırlık (netlik ve kolay anlaşılabilirlik) ve halk sağlığı güvenilirliği olmak üzere dört ölçüte göre yapıldı. “Anlaşılırlık” kavramı çalışmada tutarlılık sağlamak amacıyla “comprehensibility” terimi ile ifade edildi. Her kriter 5 puanlık Likert ölçeği ile puanlandı.Bulgular: Tüm kriterlerde genel ortalama puan 4,19 ± 0,51 idi. En yüksek ortalama puan kılavuza uyumda (4,22 ± 0,48) elde edildi; bunu halk sağlığı güvenilirliği (4,20 ± 0,54), bilimsel doğruluk (4,19 ± 0,50) ve anlaşılırlık (4,16 ± 0,53) izledi. Otuz yaş senaryosu, özellikle bilimsel doğruluk (4,34) ve kılavuza uyum (4,26) açısından en yüksek puanları aldı. On sekiz yaş senaryosu anlaşılırlıkta en yüksek puanı (4,28) elde etti ancak halk sağlığı güvenilirliği puanı biraz daha düşüktü (4,12). Kırk beş yaş senaryosu halk sağlığı güvenilirliğinde en yüksek puana ulaştı (4,32) ancak bilimsel doğruluk (4,16) ve anlaşılırlık (4,10) puanları biraz daha düşüktü. Uzman yorumları, ChatGPT’nin sağlık iletişimi ve yanlış bilgilendirmeyle mücadelede güçlü yönlerini vurgularken, bazı yanıtlarda klinik detayların ve açık kılavuz atıflarının eksikliğine dikkat çekti.Sonuç: ChatGPT-4, özellikle genç yaş gruplarında HPV aşılamasını teşvik etme ve halk sağlığı bilgisi sağlama açısından etkili bir araç gibi görünmektedir. Ancak, klinik karar verme ve kılavuza dayalı içerikteki sınırlılıkları nedeniyle, hasta eğitiminde kullanımının uzman denetimiyle birlikte yürütülmesi önerilir. Gelecek araştırmalarda farklı model sürümleri, ek değerlendirme ölçütleri ve kullanıcı perspektifleri ele alınmalıdır. CR - 1. Cangelosi G, Sacchini F, Mancin S, Petrelli F, Amendola A, Fappani C, Sguanci M, Morales Palomares S, Gravante F, Caggianelli G. Papillomavirus vaccination programs and knowledge gaps as barriers to implementation: a systematic review. Vaccines (Basel). 2025 Apr 25;13(5):460. CR - 2. Shen Y, Heacock L, Elias J, Hentel KD, Reig B, Shih G, Moy L. ChatGPT and other large language models are double-edged swords. Radiology. 2023 Apr;307(2):e230163. CR - 3. Patel TA, Michaelson G, Morton Z, Harris A, Smith B, Bourguillon R, Wu E, Eguia A, Maxwell JH. Use of ChatGPT for patient education involving HPV- associated oropharyngeal cancer. Am J Otolaryngol. 2025 Jul-Aug;46(4):104642. CR - 4. Deiana G, Dettori M, Arghittu A, Azara A, Gabutti G, Castiglia P. Artificial intelligence and public health: evaluating ChatGPT responses to vaccination myths and misconceptions. Vaccines (Basel). 2023 Jul 7;11(7):1217. CR - 5. Skryd A, Lawrence K. ChatGPT as a tool for medical education and clinical decision-making on the wards: case study. JMIR Form Res. 2024 May 8;8:e51346. CR - 6. Li J, Dada A, Puladi B, Kleesiek J, Egger J. ChatGPT in healthcare: a taxonomy and systematic review. Comput Methods Programs Biomed. 2024 Mar;245:108013. CR - 7. HouZ,WuZ,QuZ,GongL,PengH,JitM,Larson HJ, Wu JT, Lin L. A vaccine chatbot intervention for parents to improve HPV vaccination uptake among middle school girls: a cluster randomized trial. Nat Med. 2025 Jun;31(6):1855-1862. CR - 8. Bellamkonda N, Farlow JL, Haring CT, Sim MW, Seim NB, Cannon RB, Monroe MM, Agrawal A, Rocco JW, McCrary HC. Evaluating the accuracy of ChatGPT in common patient questions regarding HPV+ oropharyngeal carcinoma. Ann Otol Rhinol Laryngol. 2024 Sep;133(9):814-819. CR - 9. Xia D, Song M, Zhu T. A comparison of the persuasiveness of human and ChatGPT generated pro-vaccine messages for HPV. Front Public Health. 2025 Jan 16;12:1515871. CR - 10. PassananteA,PertweeE,LinL,etal.Conversational AI and vaccine communication: systematic review of the evidence. J Med Internet Res. 2023;25:e42758. CR - 11. Kuerbanjiang W, Peng S, Jiamaliding Y, Yi Y. Performance evaluation of large language models in cervical cancer management based on a standardized questionnaire: comparative study. J Med Internet Res. 2025;27:e63626. CR - 12. Cosma C, Radi A, Cattano R, et al. Potential role of ChatGPT in simplifying and improving informed consent forms for vaccination: a pilot study conducted in Italy. BMJ Health Care Inform. 2025;32(1):e101248. CR - 13. Cheng K, Li Z, He Y, et al. Potential use of artificial intelligence in infectious disease: take ChatGPT as an example. Ann Biomed Eng. 2023;51(6):1130-1135. UR - https://dergipark.org.tr/tr/pub/trsgo/issue//1762169 L1 - https://dergipark.org.tr/tr/download/article-file/5141137 ER -