Transformer Mimarisi Üzerine Kapsamlı Bir İnceleme: Teorik Temeller, Yapısal Özellikler ve Klinik Bir Uygulama
Öz
Bu çalışma, Doğal Dil İşleme (NLP) alanında devrim yaratan Transformer mimarisinin teorik temellerini, bileşenlerini ve uygulama alanlarını kapsamlı bir biçimde ele almaktadır. İlk olarak, FNN, RNN, LSTM ve GRU gibi önceki mimariler özetlenmiş ve bu yapıların sınırlılıkları açıklanmıştır. Ardından, Transformer mimarisinin yenilikçi yapısı, özellikle self-attention ve multi-head attention mekanizmaları detaylı biçimde analiz edilmiştir. Mimari bileşenlerin matematiksel temsilleri sunularak dikkat hesaplamalarının nasıl gerçekleştiği ortaya konmuştur. Ayrıca, makalenin uygulama bölümünde, BioClinicalBERT temelli bir ilaç öneri sistemi geliştirilmiş ve bu sistemin klinik metinler üzerindeki etkinliği değerlendirilmiştir. Sonuçlar, Transformer tabanlı modellerin sağlık alanında özelleştirilmiş çözümler üretme potansiyelini ortaya koymaktadır.
Anahtar Kelimeler
Kaynakça
- Vaswani A, Shazeer N, Parmar N, Uszkoreit J, Jones L, Gomez AN, Kaiser L, Polosukhin I. Attention Is All You Need, 2017, arXiv: 1706.03762. doi: 10.48550/arXiv.1706.03762.
- Cho K, van Merrienboer B, Gülçehre Ç, Bahdanau D, Bougares F, Schwenk H, Bengio Y. Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation, 2014, arXiv: 1406.1078. doi: 10.48550/arXiv.1406.1078.
- Hochreiter S, Schmidhuber J. Long Short-Term Memory, Neural Comput, c. 9, s. 1735-1780, 1997, doi: 10.1162/neco.1997.9.8.1735.
- Chung J, Gülçehre Ç, Cho K, Bengio Y. Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling, 2014, arXiv: 1412.3555. doi: 10.48550/arXiv.1412.3555.
- Devlin J, Chang MW, Lee K, Toutanova K. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, 2019, arXiv: 1810.04805. doi: 10.48550/arXiv.1810.04805.
- Radford A, Narasimhan K. Improving Language Understanding by Generative Pre-Training, 2018. Erişim: 18 Ağustos 2025. [Çevrimiçi]. Erişim adresi: https://www.semanticscholar.org/paper/Improving-Language-Understanding-by-Generative-Radford-Narasimhan/cd18800a0fe0b668a1cc19f2ec95b5003d0a5035
- Raffel C, Shazeer N, Roberts A, Lee K, Narang S, Matena M, Zhou Y, Li W, ve diğerleri. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer, 2023, arXiv: 1910.10683. doi: 10.48550/arXiv.1910.10683.
- Dosovitskiy A, Beyer L, Kolesnikov A, Weissenborn D, Zhai X, Unterthiner T, Dehghani M, Minderer M, ve diğerleri. An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale, 2020, arXiv: 2010.11929. doi: 10.48550/arXiv.2010.11929.
Ayrıntılar
Birincil Dil
Türkçe
Konular
Doğal Dil İşleme
Bölüm
Araştırma Makalesi
Yayımlanma Tarihi
29 Mart 2026
Gönderilme Tarihi
26 Haziran 2025
Kabul Tarihi
2 Kasım 2025
Yayımlandığı Sayı
Yıl 2026 Cilt: 38 Sayı: 1