Bu çalışmada, ALS hastalığı gibi fiziksel hareket engeline sahip bireylerin isteklerini ifade edebilmeleri için C# dilinde bir insan-bilgisayar arayüzü oluşturulmuştur. Oluşturulan bu sistemde göz bebeği hareketleri analiz edilerek hasta bireyin isteklerini hem görsel hem de sesli olarak ifade etmesi sağlanmıştır. Göz bebeği hareket takibi için oluşturulan sistemde kamera ile algılanan hasta bireyin yüzü, ten rengi filtresi kullanılarak seçilmiştir. Hasta bireyin yüzü seçildikten sonra göz çerçevesi, sistem tarafından otonom olarak tespit edilmiştir. Kullanıcının göz çevresinin aydınlatılması için adaptif IR led ışık kaynağı tasarımı yapılmıştır. Geliştirilen görüntü işleme algoritmaları ile göz bebeği tespiti yapılmıştır. Tespit edilen göz bebeğinin hareketlerine göre, kullanıcı arayüzü üzerinde hasta bireyin baktığı konum bilgisi kullanılarak isteklerini ifade edebilecekleri komutlar oluşturulmuştur. Kontrol edilen hasta yatağının prototipi 3D yazıcı ile oluşturularak bir uygulama çalışması yapılmıştır.
Yapılan bu çalışma sonucunda göz bebeği hareket tespiti kamera kullanılarak kullanıcıya herhangi bir temas olmadan gerçekleştirilmiştir. Göz bebeği hareket tespiti için oluşturulan algoritma ile hasta bireyin, isteklerini göz bebeği hareketi dışında herhangi bir harekete ihtiyaç duymadan ifade edebilmesi sağlanmıştır. Bu çalışma ile ALS hastalığı gibi fiziksel hareket engeli olan bireylerin göz bebeği hareketi takip sistemlerinde kullanılabilecek özgün olarak geliştirilmiş bir algoritma kazandırılmıştır.
In this study, a human-computer interface was created in C# so that individuals with physical mobility disabilities such as ALS can express their wishes. In this system created, pupil movements were analyzed and the patient's wishes were expressed both visually and audibly. In the system created for the tracking of the pupil, the face of the patient, which was detected by the camera, was detected autonomously by the system. An adaptive IR LED light source has been designed to illuminate the eye area of the user. Pupil motion detection was performed with the developed image processing algorithms. According to the movements of the detected pupil, commands were created on the user interface to express the wishes of the patient by using the location information of the patient. An application study was carried out by creating the prototype of the controlled patient bed with a 3D printer.
At the end of this study, pupil motion detection was carried out using a camera without any contact with the user. With the algorithm created for pupil motion detection, it is ensured that the patient can express his wishes without the need for any movement other than eye movement. With this study, a uniquely developed algorithm that can be used in pupil tracking systems of individuals with physical movement disabilities such as ALS has been acquired.
Primary Language | English |
---|---|
Subjects | Engineering |
Journal Section | Tasarım ve Teknoloji |
Authors | |
Publication Date | December 29, 2021 |
Submission Date | July 1, 2021 |
Published in Issue | Year 2021 Volume: 9 Issue: 4 |