Amaç: Nörolojide Uluslararası Hastalık Sınıflandırması Kodlarının (ICD-10) doğru ve etkin kullanımı, sağlık hizmetleri geri ödemesi, araştırma ve hasta sağlığı gözetimi için hayati önem taşımaktadır. Ancak, bu kodların hekim raporlarından manuel olarak çıkarılması hem zaman alıcıdır hem de hatalara açıktır. Bu çalışma, çeşitli büyük dil modellerinin (LLM) özellikle Türkçe nöroloji doktor raporlarından ICD-10 tanı kodlarını otomatik olarak tahmin etmedeki performansını değerlendirmektedir.
Yöntem: Çalışmada, 51 kimliksiz nöroloji doktoru raporundan oluşan bir veri kümesi üzerinde on Büyük Dil Modelinin (ChatGPT, Cohere Coral, Claude, DeepSeek, Qwen, Groq, Gemini, Meta Llama, Mistral ve Perplexity) performansı değerlendirilmiştir. Her bir Büyük Dil Modeline raporlarda belirtilen teşhislerle ilgili ICD-10 kodlarını çıkarması talimatını vermek için standartlaştırılmış bir istem kullanılmıştır. Büyük Dil Modelleri tarafından oluşturulan kodlar daha sonra nöroloji uzmanları tarafından atanan altın standart kod setiyle karşılaştırılmıştır. Modellerin etkinliğini değerlendirmek için doğruluk, kesinlik, geri çağırma ve F1-skoru gibi performans ölçütleri kullanılmıştır.
Bulgular: Değerlendirilen sistemler arasında ChatGPT, %68,6 doğruluk ve 0,812 F1 skoru ile en iyi performans gösteren sistem olarak ortaya çıkmış, güçlü bir hassasiyet (0,686) ve mükemmel bir geri çağırma (1,0) sergilemiştir. Migren (G45.9), geçici iskemik atak (TIA) ve motor nöron bozuklukları gibi yaygın nörolojik durumları tanımlamada üstünlük sağlamıştır. Gemini %58,8 doğrulukla (F1-skoru: 0,750) yakından takip ederken, Qwen ve Claude orta düzeyde performans göstermiştir (sırasıyla %54,9 ve %49,0 doğruluk). Buna karşılık, Groq ve Meta Llama sırasıyla %25,5 ve %27,5'lik doğruluk oranlarıyla daha düşük performans sergilemiştir. Bu düşük performanslı modeller özellikle ensefalit (G04.8) ve karpal tünel sendromu (G56.0) gibi karmaşık veya nadir vakalarda zorlanmış, bu da nüanslı nörolojik durumlar konusunda daha iyi eğitim ihtiyacını vurgulamıştır.
Sonuç: Büyük Dil Modelleri nöroloji raporlarında ICD-10 kodlamasını otomatikleştirmek için umut vaat ederken, performanslarında önemli değişkenlikler vardır. ChatGPT, Gemini and Qwen gibi yüksek performanslı modeller güçlü bir potansiyel göstermektedir, ancak daha düşük performanslı sistemlerin doğruluğunu ve güvenilirliğini artırmak için daha fazla iyileştirme yapılması gerekmektedir. Gelecekteki araştırmalar, özellikle karmaşık veya nadir nörolojik vakalardaki tutarsızlıkları ele almak için eğitim veri setlerini geliştirmeye, kural tabanlı algoritmaları dahil etmeye ve insan gözetimini entegre etmeye odaklanmalıdır.
Yapay Zeka Nöroloji Raporları Büyük Dil Modelleri (LLM) Doğal Dil İşleme ICD-10 Kodlama Tıp Bilişimi
Project no:KA25/180
Objective: Accurate and efficient use of International Classification of Diseases Clinical Modification Codes (ICD-10) in neurology is vital for healthcare reimbursement, research, and patient health surveillance. However, manually extracting these codes from physician reports is both time-consuming and prone to errors. This study evaluates the performance of several large language models (LLMs) in automatically predicting ICD-10 diagnosis codes specifically from Turkish neurology physician reports.
Method: The study evaluates the performance of ten LLMs (ChatGPT, Cohere Coral, Claude, DeepSeek, Qwen, Groq, Gemini, Meta Llama, Mistral, and Perplexity) on a dataset of 51 de-identified neurology doctor reports. A standardized prompt was used to instruct each LLM to extract ICD-10 codes relevant to the diagnoses documented in the reports. The LLM-generated codes were then compared to a gold standard set of codes assigned by certified neurology coding specialists. Performance metrics such as accuracy, precision, recall and F1-score, were used to assess the models' effectiveness.
Results: Among the LLMs, ChatGPT emerged as the top performer with an accuracy of 68.6% and an F1-score of 0.812, demonstrating strong precision (0.686) and perfect recall (1.0). It excelled in identifying common neurological conditions such as migraines (G45.9), transient ischemic attacks (TIA), and motor neuron disorders. Gemini followed closely with 58.8% accuracy (F1-score: 0.750), while Qwen and Claude showed moderate performance (54.9% and 49.0% accuracy, respectively). Conversely, Groq and Meta AI exhibited significant limitations, with accuracies of 25.5% and 27.5%, respectively.
Conclusion: While LLMs show promise for automating ICD-10 coding from neurology reports, there is considerable variability in their performance. High-performing models like ChatGPT demonstrate strong potential, but further refinement is needed to improve the accuracy and reliability of lower-performing systems. Future research should focus on enhancing training datasets, incorporating rule-based algorithms, and integrating human oversight to address discrepancies, particularly in complex or rare neurological cases.
Artificial Intelligence Neurology Reports Large Language Models Natural Language Processing ICD-10 Coding Medical Informatics
This study was approved by Baskent University Institutional Review Board (Project no:KA25/180) and supported by Baskent University Research Fund.
Başkent University, Faculty of Medicine
Project no:KA25/180
Birincil Dil | İngilizce |
---|---|
Konular | Sağlık Hizmetleri ve Sistemleri (Diğer) |
Bölüm | Research Article |
Yazarlar | |
Proje Numarası | Project no:KA25/180 |
Yayımlanma Tarihi | 26 Eylül 2025 |
Gönderilme Tarihi | 20 Temmuz 2025 |
Kabul Tarihi | 5 Eylül 2025 |
Yayımlandığı Sayı | Yıl 2025 Cilt: 1 Sayı: 3 |