Karmaşık ağlardaki düğüm önemine ilişkin araştırmalar, klasik merkezilik ölçütleri, entropi tabanlı ölçümler ve çeşitli makine öğrenme modelleri de dahil olmak üzere geniş bir yelpazede yaklaşımlardan yararlanmaya devam etmektedir. Önceki çalışmalar, entropi odaklı ve öğrenme tabanlı tekniklerin, bilgi yayılımı veya sağlamlık analizi gibi görevler için daha yüksek doğruluk ve daha hızlı yakınsama sağladığını sıklıkla bildirmektedir; ancak bu sonuçlar veri kümesine ve her yöntemin varsayımlarına bağlı olarak değişebilir. Daha az araştırılan konu ise, bu tekniklerin, yapısal verilerde doğrudan görünmeyen düğümlerin bağlamsal veya anlamsal özelliklerini ne ölçüde hesaba kattığıdır. Bu çalışmada, yerleşik merkezilik ölçütlerini büyük bir dil modeli (LLM) tarafından üretilen değerlendirmelerle birleştirerek bu boşluğu gidermek için hibrit bir çerçeve sunulmaktadır. Yaklaşım, Zachary'nin Karate Kulübü, Krackhardt Uçurtma Grafiği ve Caz Müzisyenleri Ağı gibi iyi bilinen birkaç kıyaslama ağında incelenmiş ve elde edilen sıralamalar, düğümler arasında daha net bir ayrım ve birçok durumda, tamamen yapısal temellerden daha yorumlanabilir kalıplar göstermiştir. Bu bulguları daha geniş literatür içinde konumlandırmak için, sonuçlar, bileşik veya entropi tabanlı merkezilik formülasyonlarını kullanan üç önceki çalışma ile karşılaştırıldı. Ölçeklenebilirliği araştırmak için, SNAP deposundan üç büyük işbirliği ağı da değerlendirildi. Genel kanıtlar, özellikle yapısal bilginin tek başına eksik bir tablo sunduğu durumlarda, LLM destekli puanlamanın karmaşık ağ analizi için tamamlayıcı bir bakış açısı sunabileceğini göstermektedir.
Research on node importance in complex networks continues to draw on a wide range of approaches, including classical centrality metrics, entropy-based measures, and various machine-learning models. Previous studies often reports that entropy-driven and learning-based techniques yield higher accuracy and faster convergence for tasks such as information spreading or robustness analysis, although these results can vary depending on the dataset and the assumptions of each method. What remains less explored is the extent to which these techniques account for the contextual or semantic characteristics of nodes, which are not directly visible in structural data. In this study, a hybrid framework is introduced to address this gap by combining established centrality metrics with evaluations produced by a large language model (LLM). The approach was examined on several well-known benchmark networks—Zachary’s Karate Club, the Krackhardt Kite Graph, and the Jazz Musicians Network—and the resulting rankings showed clearer separation among nodes and, in many cases, more interpretable patterns than the purely structural baselines. To situate these findings within the broader literature, results were compared with three prior studies that employ composite or entropy-based centrality formulations. To explore scalability, three larger collaboration networks from the SNAP repository were also evaluated. The overall evidence suggests that LLM-supported scoring may offer a complementary perspective for complex network analysis, especially when structural information alone provides an incomplete picture.
This study does not involve human or animal participants. All procedures followed scientific and ethical principles, and all referenced studies are appropriately cited.
This research received no external funding.
No acknowledgment statement is included in the manuscript.
| Primary Language | English |
|---|---|
| Subjects | Context Learning, Deep Learning, Machine Learning Algorithms |
| Journal Section | Research Article |
| Authors | |
| Submission Date | October 2, 2025 |
| Acceptance Date | December 15, 2025 |
| Publication Date | January 21, 2026 |
| Published in Issue | Year 2026 Volume: 14 Issue: 1 |