Yıl 2020, Cilt 10 , Sayı 2, Sayfalar 151 - 157 2020-12-27

Determining Gaze Information from Steady-State Visually-Evoked Potentials
Durağan Durum Görsel Uyaran Potansiyellerinden Bakış Bilgilerini Çıkarma

Ebru SAYILGAN [1]


Brain-Computer Interface (BCI) is a communication system that enables individuals who lack control and use of their existing muscular and nervous systems to interact with the outside world because of various reasons. A BCI enables its user to communicate with some electronic devices by processing signals generated during brain activities. This study attempts to detect and collect gaze data within Electroencephalogram (EEG) signals through classification. To this purpose, three datasets comprised of EEG signals recorded by researchers from the Autonomous University were adopted. The EEG signals in these datasets were collected in a setting where subjects’ gaze into five boxes shown on a computer screen was recognized through Steady-State Visually Evoked Potential based BCI. The classification was performed using algorithms of Naive Bayes, Extreme Learning Machine, and Support Vector Machines. Three feature sets; Autoregressive, Hjorth, and Power Spectral Density, were extracted from EEG signals. As a result, using Autoregressive features, classifiers performed between 45.67% and 78.34%, whereas for Hjorth their classification performance was within 43.34-75.25%, and finally, by using Power Spectral Density their classification performance was between 57.36% and 83.42% Furthermore, classifier performances using Naive Bayes varied between 52.23% and 79.15% for Naive Bayes, 56.32-83.42% for Extreme Learning Machine, and 43.34-72.27% for Support Vector Machines by regarding classification algorithms. Among achieved accuracy performances, the best accuracy is 83.42%, achieved by the Power Spectral Density features and Extreme Learning Machine algorithm pair.
Beyin-Bilgisayar Arayüzü (BBA), mevcut kas ve sinir sistemlerini çeşitli nedenlerle kontrol edemeyen bireylerin dış dünya ile etkileşime girmelerini sağlayan bir iletişim sistemidir. Temel olarak, bir BBA, kullanıcının beyin aktiviteleri sırasında üretilen sinyalleri işleyerek bazı elektronik cihazlarla iletişim kurmasını sağlar. Bu çalışma, sınıflandırma yoluyla Elektroensafalogram (EEG) sinyalleri içindeki sabit bakış verilerini belirlemeye ve toplamaya çalışmaktadır. Bu amaçla Autonomous Üniversitesi’ndeki araştırmacılar tarafından kaydedilen EEG sinyallerinden oluşan üç veri seti incelenmiştir. Bu veri kümelerindeki EEG sinyalleri, deneklerin bilgisayar ekranında gösterilen beş kutuya bakışlarının Durağan Durum Görsel Uyarılmış Potansiyel bazlı BBA ile tanındığı bir ortamda toplanmıştır. Naive Bayes, Aşırı Öğrenme Makinesi ve Destek Vektör Makineleri algoritmaları kullanılarak sınıflandırma yapıldı. EEG sinyallerinden Özbağlanımlı, Hjorth ve Güç Spektral Yoğunluğu olarak üç öznitelik seti çıkarılmıştır. Sonuç olarak, Özbağlanımlı özniteliklerin kullanıldığı durumda sınıflandırıcılar %45.67 ile %78.34 arasında performans gösterirken, Hjorth özniteliği kullanıldığında sınıflandırma performansları %43.34-75.25 ve son olarak Güç Spektral Yoğunluğu kullanılarak sınıflandırma performansları %57.36 ile %83.42 arasındadır. Ayrıca sınıflandırma performansları, sınıflandırma algoritmalarına göre Naive Bayes için %52.23 ile 79.15, Aşırı Öğrenme Makinesi için %56.32-83.42 ve Destek Vektör Makineleri için %43.34-72.27 arasında değişmektedir. Elde edilen doğruluk performansları arasında en iyi doğruluk değeri, Güç Spektral Yoğunluk özniteliği ve Aşırı Öğrenme Makinesi algoritması çifti ile elde edilen %83.42 olmuştur.
  • Altan, G., Kutlu, Y., Allahverdi, N. 2016. Deep belief networks based brain activity classification using EEG from slow cortical potentials in stroke. International Journal of Applied Mathematics, Electronics and Computers, 4: 205-210. http:// dx.doi.org/10.18100/ijamec.270307.
  • Altan, G., Kutlu, Y. 2018. Generative autoencoder kernels on deep learning for brain activity analysis. Natural and Engineering Sciences, 3(3): 311–322. https://doi.org/10.28978/ nesciences.468978.
  • Carvalho, SN., Costa, TB., Uribe, LF., Soriano, DC., Yared, G. FG., Coradine, LC., Attux, R. 2015. Comparative analysis of strategies for feature extraction and classification in SSVEP BCIs. Biomed. Signal Proces., 21: 34–42. https://doi. org/10.1016/j.bspc.2015.05.008.
  • Chiappa, S., Bengio, S. 2004. HMM and IOHMM modeling of EEG rhythms for asynchronous BCI Systems. European Symposium on Artificial Neural Networks (ESANN), 199-204, Bruges, Belgium.
  • Courchesne, E., Townsend, J., Akshoomoff, NA., Saitoh, O., Yeung-Courchesne, R., Lincoln, AJ., James, HE., Haas, RH., Schreibman, L., Lau, L. 1994. Impairment in shifting attention in autistic and cerebellar patients. Behav. Neurosci., 108(5): 848–865. https://doi.org/10.1037/0735- 7044.108.5.848.
  • Diez, PF., Correa, AG., Leber, EL. 2013. SSVEP detection using adaptive filters. 5th Latin American Congress on Biomedical Engineering, 33: 1154-1157.
  • Durmuş, E., Sadreddini, Z., Özmen, NG. 2014. Beyin bilgisayar arayüzü sistemleri için uygun öznitelik ve sınıflandırıcı seçimi. Otomatik Kontrol Ulusal Toplantısı (TOK), Kocaeli, 11-13 Eylül, 651-656.
  • Fernandez-Fraga, SM., Aceves-Fernandez, MA., Pedraza- Ortega, JC., Ramos-Arreguin, JM. 2018b. Screen task experiments for EEG signals based on SSVEP brain computer interface. Int. J. Adv. Res. (Indore), 6(2): 1718-1732. http:// dx.doi.org/10.21474/IJAR01/6612.
  • Guger, C., Ramoser, H., Pfurtscheller, G. 2009. Real-time EEG analysis with subject-specific spatial patterns for a braincomputer interface (BCI). IEEE Trans. Rehabil. Eng., 8: 447– 456. https://doi.org/10.1109/86.895947.
  • Gunal, S. 2001. Örüntü tanıma uygulamalarında alt uzay analiziyle öznitelik seçimi ve sınıflandırma. Doktora tezi, Osmangazi Üniversitesi, Fen Bilimleri Enstitüsü, Eskişehir.
  • Huang, G., Chen, L. 2007. Convex incremental extreme learning machine. Neurocomputing, 70(16-18): 3056-3062. https://doi. org/10.1016/j.neucom.2007.02.009.
  • Huang, G., Zhu, Q., Siew, C. 2006. Extreme learning machine: Theory and applications. Neurocomputing, 70: 489-501. https:// doi.org/10.1016/j.neucom.2005.12.126.
  • Ibanez, A., Bielza, C., Larranaga, P. 2014. Cost-sensitive selective naive bayes classifiers for predicting the increase of the h-index for scientific journals. Neurocomputing, 135: 42-52. https://doi.org/10.1016/j.neucom.2013.08.042.
  • Loo, C. K., Samraj, A., Lee, G. C. 2011. Evaluation of methods for estimating fractal dimension in motor imagery-based brain computer interface. Discrete Dynamics in Nature and Society, 724697: 1-8. https://doi.org/10.1155/2011/724697.
  • Makeig, S., Westerfield, M., Jung, TP., Covington, J., Townsend, J., Sejnowski, TJ., Courchesne, E. 1999. Functionally independent components of the late positive event-related potential during visual spatial attention. J. Neurosci., 19(7): 2665–2680. https://doi.org/10.1523/ JNEUROSCI.19-07-02665.1999.
  • Mason, S. G., Birch, G. E. 2003. A general framework for brain-computer interface design. IEEE Trans. Neural Syst. Rehabil. Eng., 11: 70-85. https://doi.org/10.1109/ TNSRE.2003.810426.
  • Millan, JR., Mourino, J. 2003. Asynchronous BCI and local neural classifiers: An over view of the adaptive brain computer interface project. IEEE Trans. Neural Syst. Rehabil. Eng., 11: 159–161. https://doi.org/10.1109/TNSRE.2003.814435
  • Narin, A., İşler, Y., Özer, M. 2014. Konjestif kalp yetmezliği teşhisinde kullanılan çapraz doğrulama yöntemlerinin sınıflandırıcı performanslarının belirlenmesine olan etkilerinin karşılaştırılması. DEÜ Mühendislik Fakültesi Mühendislik Bilimleri Dergisi, 16(48): 1-8. Retrieved from https://dergipark. org.tr/tr/pub/deumffmd/issue/40797/492155.
Birincil Dil en
Konular Mühendislik
Bölüm Araştırma Makaleleri
Yazarlar

Yazar: Ebru SAYILGAN (Sorumlu Yazar)
Kurum: İZMİR KATİP ÇELEBİ ÜNİVERSİTESİ
Ülke: Turkey


Tarihler

Yayımlanma Tarihi : 27 Aralık 2020

Bibtex @araştırma makalesi { karaelmasfen847871, journal = {Karaelmas Fen ve Mühendislik Dergisi}, issn = {2146-7277}, address = {Zonguldak Bülent Ecevit Üniversitesi}, publisher = {Bülent Ecevit Üniversitesi}, year = {2020}, volume = {10}, pages = {151 - 157}, doi = {}, title = {Determining Gaze Information from Steady-State Visually-Evoked Potentials}, key = {cite}, author = {Sayılgan, Ebru} }
APA Sayılgan, E . (2020). Determining Gaze Information from Steady-State Visually-Evoked Potentials . Karaelmas Fen ve Mühendislik Dergisi , 10 (2) , 151-157 . Retrieved from https://dergipark.org.tr/tr/pub/karaelmasfen/issue/58727/847871
MLA Sayılgan, E . "Determining Gaze Information from Steady-State Visually-Evoked Potentials" . Karaelmas Fen ve Mühendislik Dergisi 10 (2020 ): 151-157 <https://dergipark.org.tr/tr/pub/karaelmasfen/issue/58727/847871>
Chicago Sayılgan, E . "Determining Gaze Information from Steady-State Visually-Evoked Potentials". Karaelmas Fen ve Mühendislik Dergisi 10 (2020 ): 151-157
RIS TY - JOUR T1 - Determining Gaze Information from Steady-State Visually-Evoked Potentials AU - Ebru Sayılgan Y1 - 2020 PY - 2020 N1 - DO - T2 - Karaelmas Fen ve Mühendislik Dergisi JF - Journal JO - JOR SP - 151 EP - 157 VL - 10 IS - 2 SN - 2146-7277- M3 - UR - Y2 - 2020 ER -
EndNote %0 Karaelmas Fen ve Mühendislik Dergisi Determining Gaze Information from Steady-State Visually-Evoked Potentials %A Ebru Sayılgan %T Determining Gaze Information from Steady-State Visually-Evoked Potentials %D 2020 %J Karaelmas Fen ve Mühendislik Dergisi %P 2146-7277- %V 10 %N 2 %R %U
ISNAD Sayılgan, Ebru . "Determining Gaze Information from Steady-State Visually-Evoked Potentials". Karaelmas Fen ve Mühendislik Dergisi 10 / 2 (Aralık 2020): 151-157 .
AMA Sayılgan E . Determining Gaze Information from Steady-State Visually-Evoked Potentials. Karaelmas Fen ve Mühendislik Dergisi. 2020; 10(2): 151-157.
Vancouver Sayılgan E . Determining Gaze Information from Steady-State Visually-Evoked Potentials. Karaelmas Fen ve Mühendislik Dergisi. 2020; 10(2): 151-157.
IEEE E. Sayılgan , "Determining Gaze Information from Steady-State Visually-Evoked Potentials", Karaelmas Fen ve Mühendislik Dergisi, c. 10, sayı. 2, ss. 151-157, Ara. 2020