Büyük dil modelleri, bilimsel ve klinik sorular için giderek daha fazla başvurulan araçlar hâline gelse de, kaynağa dayanmayan yanıtların hâlâ sıkça görülmesi, bu modellerin tek başına güvenilir kabul edilmesini zorlaştırmaktadır. Bu nedenle, üretimi seçilmiş ve sürümlenmiş bir literatür korpusuna sıkı biçimde bağlayan ve verinin sisteme alınmasından nihai yanıta kadar tüm adımları kayıt altına alan bir geri-getirmeli (retrieval-augmented) asistan geliştirdik. Belgeler, pratik ve token-duyarlı bir politika ile parçalara ayrılır, yerel olarak kodlanır ve vektörler, sistemin gerektiğinde atıf yapabilmesi veya yanıt vermekten çekinebilmesi için kaynak bilgisiyle birlikte saklanır. Sorgular gömülür, vektör deposundan en uygun top-k pasajlar getirilir ve istem, modele yalnızca kanıtla desteklenen ifadeler üretmesini veya yanıt vermekten kaçınmasını söyler. Bileşenlerin tümü kasıtlı olarak değiştirilebilir yapıdadır: gömücü (embedder) gizlilik için kurum içinde çalışır; vektör deposu, tekrarlanabilir deneyler için anlık kopyaları (snapshot) destekler; üretici model (Gemma/Gemma2) ise verimli çıkarım sağlayacak şekilde seçilmiştir. Bunun ötesinde, getirinin kalitesi, yanıt doğruluğu ve kapsayıcılığını ölçen; parça boyutu, örtüşme ve k değeri üzerinde ablatif analizler içeren önceden kayıtlı bir değerlendirme planı sunuyoruz. Tüm kodlar, varsayılan ayarlar ve betikler paylaşılmış olup, böylece diğer araştırmacılar sistemi yeniden kurabilir, kendi tercihlerinin sonuçlarını karşılaştırabilir ve yapıyı yeni alanlara genişletebilir. Hedef nettir: Yanıtları literatüre dayandırarak halüsinasyonu azaltmak, tek GPU’lu bir sunucuda maliyet ve gecikmeyi öngörülebilir kılmak ve ampirik değerlendirmenin isteğe bağlı değil, rutin olmasını sağlamak. Deneysel sonuçlar, bu tasarım ilkelerini doğrulamıştır: Önerdiğimiz modüler RAG sistemi, Recall@k = 0.86, F1 = 0.79 ve Atıf Doğruluğu = 0.91 değerlerine ulaşarak, hem klasik RAG yaklaşımını hem de yalnız-LLM temelli sistemleri anlamlı düzeyde geride bırakmıştır (p < 0.05). Bu bulgular, çerçevenin kanıt-temelli klinik karar desteği için güvenilirliğini, dayanak doğruluğunu ve yeniden üretilebilirliğini güçlü biçimde göstermektedir.
Arama ile Güçlendirilmiş Üretim Klinik Karar Desteği Halüsinasyon Azaltma Bilgi Alma Açıklanabilir Yapay Zeka Büyük Dil Modeli.
Large language models are increasingly consulted for scientific and clinical questions, yet ungrounded answers still appear too often to trust them on their own. We built a retrieval-augmented assistant that keeps generation tied to a curated, versioned corpus, and records every step from ingestion to answer. Documents are segmented with a practical, token-aware policy and encoded locally; vectors are stored with provenance so the system can cite or abstain. Queries are embedded, top-k passages are retrieved from a vector store, and a prompt asks the generator to respond only with supported statements or to decline. The components are intentionally swappable: the embedder runs on-premises for privacy, the store supports snapshots for repeatable experiments, and the generator (Gemma/Gemma2) is selected for efficient inference. Beyond the pipeline, we preregister an evaluation plan that measures retrieval quality, answer faithfulness and coverage, with ablations on chunk size, overlap, and k. All code, defaults, and scripts are released so others can reproduce the setup, compare their own choices, and extend the system to new domains. The goal is clear: reduce hallucination by grounding answers in literature, keep costs and latency predictable on a single-GPU server, and make empirical evaluation routine rather than optional. Experimental evaluation confirmed these design claims: the proposed modular RAG achieved Recall@k = 0.86, F1 = 0.79, and Attribution Accuracy = 0.91, significantly outperforming both Classic RAG and LLM-only baselines (p < 0.05). These results validate the framework’s reliability, grounding fidelity, and reproducibility for evidence-based clinical decision support.
Retrieval-Augmented Generation Clinical Decision Support Hallucination Mitigation Information Retrieval Explainable AI Large Language Model.
| Primary Language | English |
|---|---|
| Subjects | Artificial Intelligence (Other) |
| Journal Section | Research Article |
| Authors | |
| Early Pub Date | November 18, 2025 |
| Publication Date | November 28, 2025 |
| Submission Date | October 25, 2025 |
| Acceptance Date | November 13, 2025 |
| Published in Issue | Year 2025 EARLY VIEW |
This work is licensed under Creative Commons Attribution-ShareAlike 4.0 International.