EEG sinyalleri kullanılarak motor hareket hayali (MHH) görevlerinin sınıflandırılması, beyin-bilgisayar arayüzleri (BBA) gibi teknolojilerinin gelişiminde önemli rol oynayarak popülerlik kazanmıştır. Bu çalışmada, EEG sinyallerini zaman-frekans uzayında görüntülere kodlamak için Stockwell dönüşümünü kullanan ve görüntüleri önceden eğitilmiş Inception-ResNet-V2, AlexNet ve SqueezeNet evrişimli sinir ağlarına (ESA) vererek sınıflandıran yaklaşımlar önerilmiştir. Denekten-deneğe ve oturumdan-oturuma değişkenliğin fazla olması MHH görevlerinin tanınmasını zorlaştırmaktadır. Literatür çalışmalarının çoğu denek içi performansı incelemiştir. Bu çalışmada ise bir katılımcıyı dışarıda bırak çapraz doğrulama stratejisi kullanılmış, denekler arası MHH varyasyonun etkisi araştırılmış, modellerin performansı ve genelleme yeteneğini değerlendirerek literatüre katkıda bulunulmaya çalışılmıştır. Aynı zamanda farklı oturumlar ve geri besleme olup olmama durumları da değerlendirilmiştir. MHH görevlerini sınıflandırmanın zorluğu ve denekler arası farklılıklar göz önüne alındığında sonuçlar ümit vericidir. İpucu tabanlı gösterim paradigması ve geri bildirimsiz sinyaller için sonuçlar %62,1-%80,8 arasında; gülen yüz geri bildirimi içeren sinyaller için %57,1-%96,3 arasında; geri bildirim içeren ve içermeyen sinyaller için ise %56,8-%91,4 arasındadır. Bu bulgular, MHH görevleri için Stockwell dönüşümü ile ESA’larla birleştirmenin potansiyelini vurgulamakta ve EEG tabanlı BBA uygulamalarında denekler arası değişkenlik hakkında bilgi sunmaktadır.
Stockwell Dönüşümü Evrişimli Sinir Ağları Transfer Öğrenme Motor Hareket Hayali Beyin Bilgisayar Arayüzleri Yapay Zeka Yazılımı
Motor imagery (MI) classification using EEG signals has gained popularity, playing an essential role in developing technologies such as brain-computer interfaces (BCIs). This paper proposes novel approaches using the Stockwell transform (S-transform) to encode signals into images in time-frequency space and classify them by feeding them to pre-trained Inception-ResNet-V2, AlexNet, and SqueezeNet CNNs. High subject-to-subject and session-to-session signal variability hinder the recognition of MI tasks. Most literature has studied within-subject performance. This study conducted experiments using a leave-one-subject-out cross-validation strategy, investigated inter-subject variation's effect and contributed by evaluating the model's performance and generalization ability. At the same time, different sessions and the presence or absence of feedback were assessed, and the results were analyzed. The results are encouraging, considering the difficulty of classifying MI and inter-subject differences. For a cue-based paradigm and non-feedback signals, the results are between 62.1-80.8%; for signals with smiley feedback, the results are between 57.1-96.3%; and for signals with and without feedback are between 56.8-91.4%. These findings highlight the potential of combining the S-transform with CNNs, offering valuable insights into inter-subject variability in EEG-based BCI applications.
Stockwell Transform Convolutional Neural Networks Transfer Learning Motor Imagery Brain-Computer Interfaces Artificial Intelligence Software
Birincil Dil | İngilizce |
---|---|
Konular | Bilgisayar Yazılımı, Biyomedikal Görüntüleme |
Bölüm | Makaleler |
Yazarlar | |
Yayımlanma Tarihi | 15 Mart 2025 |
Gönderilme Tarihi | 4 Temmuz 2024 |
Kabul Tarihi | 16 Aralık 2024 |
Yayımlandığı Sayı | Yıl 2025 Cilt: 15 Sayı: 1 |
This work is licensed under a Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.