Research Article
BibTex RIS Cite

SURİYELİ MÜLTECİLERE UYGULANAN AYRIMCI-DIŞLAYICI TWİTLERİN BERT MODELİ İLE SINIFLANDIRILMASI

Year 2022, Volume: 12 Issue: 2, 428 - 456, 31.12.2022
https://doi.org/10.31834/ortadoguvegoc.1148440

Abstract

Bu çalışmanın amacı, mülteciler özelinde ‘Suriyeliler’ temasının Türk halkında uyandırdığı imajı ayrımcılık-ötekileştirme bağlamında sınıflamaktır. Analiz için gerekli olan veri, Twitter platformunda toplanmış gerekli ön işlemlerden geçirilmiş, ardından ayrımcı-dışlayıcı ifadeler içeren ve içermeyenler olarak ikili (binary) sınıflandırılmıştır. Model oluşturma safhasında dönüştürücü (transformer) mimarisini kullanan BERT modeli önerilmiştir. Arkasında çok kapsamlı bir matematik ve derin ağ bulunan BERT modeli; dilden dile çeviri, özet çıkarma ve sınıflama gibi birçok alanda başarılı performans göstermektedir. Oluşturulan modelin doğruluk oranı 0.8562 bulunmuştur. Çalışmanın uygulama aşamasında, geliştirilen model kullanılarak Türkiye’de yaşanan mültecilerle ilgili adli iki vaka üzerine atılan twitler incelenmiştir. Sonuç olarak iki olay üzerinden yapılan değerlendirmede ülkemizde mültecilere yönelik olumsuz duygu ve tutumların endişe verici bir düzeyde olduğu ortaya çıkmıştır

References

  • Acikalin, UU/Bardak, B/Kutlu, M (2021), BERT modeli ile türkçe duygu analizi . http://earsiv.etu.edu.tr:80/xmlui/handle/20.500.11851/4264 .
  • Akbulut, E. (2020). Misafir likten ’ öteki ’liğe Suriyeli mülteciler ve insan hakları: Sultanbeyli örneği, Doktora Tezi, Maltepe Üniversitesi, Eğitim Enstitüsü, İstanbul.
  • Akdeniz E. Suriyeliler geri döner mi? Evrensel Gazetesi erişim tarihi: 18.06.2021
  • Bozdağ, F. (2021) Covid-19’un Suriyeli mülteciler üzerindeki etkileri . Eff Covid-19 Syr Refug, 1, 701-722.
  • Cemek, Y/Cidecio, C/ Öztürk, AU/Çekinel, RF/Karagöz, P (2020), Investigating the neural models for ırony detection on turkish ınformal texts . 28th Signal Processing and Communications Applications Conference (SIU), 1-4, .
  • Clark, K/Khandelwal, U/Levy, O/ Manning, CD (2019), What does bert look at? an analysis of BERT’s attention . ArXiv190604341 Cs. 1. http://arxiv.org/abs/1906.04341.
  • Delobelle, P/ Winters, T/ Berendt,/ B (2021), RobBERT: a Dutch RoBERTa-based Language Model http://arxiv.org/abs/2001.06286 .
  • Devlin, J/Chang, MW/Lee, K/Toutanova, K (2019), BERT: Pre-training of deep bidirectional transformers for language understanding . http://arxiv.org/abs/1810.04805 .
  • Erdoğan, MM.(2014). Türkiye’deki Suriyeliler: Toplumsal kabul ve uyum araştırması, İstanbul Bilgi Üniv.Yayınları. https://www.milliyet.com.tr/gpt-3-nedir-gpt-3-neler-yapabiliyor 16712 erişim tarihi: 21.05.2021.
  • https://www.unhcr.org/tr/wp-content/uploads/sites/14/2020/01/Multecilerin-Hukuki-Durumuna-Iliskin-Sozlesme erişim tarihi: 11.04.2021 .
  • https://www.goc.gov.tr/gecici-koruma563, erişim tarihi: 15.08.2021.
  • https://www.sozcu.com.tr/2020/gundem/turkiyede-kac-suriyeli-var-kaci-tc-vatandasi-oldu-3274793 erişim tarihi: 11.09.2021.
  • https://www.istanpol.org/post/i̇stanbul-da-suriyeli erişim tarihi: 01.09.2021.
  • https://www.analyticsvidhya.com/blog/2019/06/understanding-transformers-nlp-state-of-the-art-models . erişim tarihi:11.04.2021
  • https://kaggle.com/abhinand05/bert-for-humans erişim tarihi:11.04.2021. https://www.analyticsvidhya.com/blog/2020/07/transfer-learning-for-nlp-fine-tuning-bert-for-text-classificatio erişim tarihi:21.04.2021.
  • Hua, Y. (2019) , Understanding BERT performance in propaganda analysis Proc Second Workshop Nat Lang Process Internet Freedom Censorsh Disinformation Propag, 135-138, Published online 2019, doi:10.18653/v1/D19-5019.
  • Karataş, İ.(2020). Türkiye’nin vatandaşlık politikalarının öteki algısındaki rolünü Suriyeli mülteciler üzerinden düşünmek , Süleyman Demirel Üniversitesi Fen-Edebiyat Fakültesi Sos Bilim Dergisi, 50, 17-42
  • Lan, Z/Chen, M/Goodman, S/Gimpel, K/Sharma, P/Soricut, R (2020), ALBERT: A Lite BERT for self-supervised learning of language representations . http://arxiv.org/abs/1909
  • Le, H/ Vial, L/Frej, J (2020), FlauBERT: Unsupervised language model pre-training for French http://arxiv.org/abs/1912.05372.
  • Munikar, M/Shakya, S/ Shrestha, A (2019), Fine-grained sentiment classification using BERT . Artificial Intelligence for Transforming Business and Society (AITB), 1, 1-5.
  • Nozza, D/Bianchi,F/ Hovy D (2020) What the [MASK]? making sense of language-specific BERT models . http://arxiv.org/abs/2001.06286
  • Orhan, O./ Gündoğar, SS. (2015). Suriyeli sığınmacıların Türkiye’ye etkileri, Ortadoğu Stratejik Araştırmalar Merkezi, Türkiye Ekonomik ve Sosyal Etüdler Vakfı, İstanbul.
  • Ozan, Ş/Taşar, DE (2021), Auto-tagging of short conversational sentences using natural language processing methods . http://arxiv.org/abs/2106.04959 .
  • Özdil, U/Arslan, B/Taşar, DE/ Polat, G/ Ozan, Ş (2021), Ad Text Classification with transformer-based natural language processing methods.http://arxiv.org/abs.
  • Öztürk, H/Değirmenci, A/ Güngör, O/Uskudarli, S (2020), The Role of Contextual word embeddings in correcting the ‘de/da’ clitic errors in Turkish . In: 2020 28th Signal Processing and Communications Applications Conference (SIU). Gaziantep-Türkiye, 1-4.
  • Pota, M/ Ventura, M/ Catelli, R/ Esposito, M(2021), An effective BERT-Based pipeline for twitter sentiment analysis: A case study in Italian . Sensors, 21(1), 1-21.
  • Rogers, A/ Kovaleva, O/ Rumshisky A (2021), A primer in BERTology: What we know about how BERT works Trans Assoc Comput Linguist, 8, 842-866.
  • Sevli̇, O/Kemaloğlu, N (2021), Olağandışı olaylar hakkındaki tweet’lerin gerçek ve gerçek dışı olarak google BERT modeli ile sınıflandırılması , Veri Bilimi, 4(1), 31-37
  • Schweter, S (2020), BERTurk - BERT Models for Turkish . Zenodo, doi:10.5281/zenodo.3770924
  • Sığırcı, İO/ Özgür, H/Oluk, A/ et al. (2020), Sentiment analysis of Turkish reviews on google play store 5th International Conference on Computer Science and Engineering (UBMK), 314-315.
  • Sun, C/ Qiu, X/ XuYi, Huang X (2019), How to fine-tune BERT for text classification? In: Sun M, Huang X, Ji H, Liu Z, Liu Y, eds. Chinese Computational Linguistics. Lecture Notes in Computer Science. Springer International Publishing; 2019:194-206. doi:10.1007/978-3-030-32381-3_16
  • Vaswani, A/Shazeer, N/Parmar N (2017), Attention ıs all you need . Published online December 5, http://arxiv.org/abs/1706.03762.
  • Wang, T/ Lu, K/ Chow, KP/ Zhu, Q (2020), COVID-19 Sensing: negative sentiment analysis on social media in china via BERT model . IEEE Access, 8, 138162-138169.
  • Yadav, A/ Vishwakarma, DK (2020), Sentiment analysis using deep learning architectures: a review, Artif Intell Rev. 53(6), 4335-4385.
Year 2022, Volume: 12 Issue: 2, 428 - 456, 31.12.2022
https://doi.org/10.31834/ortadoguvegoc.1148440

Abstract

References

  • Acikalin, UU/Bardak, B/Kutlu, M (2021), BERT modeli ile türkçe duygu analizi . http://earsiv.etu.edu.tr:80/xmlui/handle/20.500.11851/4264 .
  • Akbulut, E. (2020). Misafir likten ’ öteki ’liğe Suriyeli mülteciler ve insan hakları: Sultanbeyli örneği, Doktora Tezi, Maltepe Üniversitesi, Eğitim Enstitüsü, İstanbul.
  • Akdeniz E. Suriyeliler geri döner mi? Evrensel Gazetesi erişim tarihi: 18.06.2021
  • Bozdağ, F. (2021) Covid-19’un Suriyeli mülteciler üzerindeki etkileri . Eff Covid-19 Syr Refug, 1, 701-722.
  • Cemek, Y/Cidecio, C/ Öztürk, AU/Çekinel, RF/Karagöz, P (2020), Investigating the neural models for ırony detection on turkish ınformal texts . 28th Signal Processing and Communications Applications Conference (SIU), 1-4, .
  • Clark, K/Khandelwal, U/Levy, O/ Manning, CD (2019), What does bert look at? an analysis of BERT’s attention . ArXiv190604341 Cs. 1. http://arxiv.org/abs/1906.04341.
  • Delobelle, P/ Winters, T/ Berendt,/ B (2021), RobBERT: a Dutch RoBERTa-based Language Model http://arxiv.org/abs/2001.06286 .
  • Devlin, J/Chang, MW/Lee, K/Toutanova, K (2019), BERT: Pre-training of deep bidirectional transformers for language understanding . http://arxiv.org/abs/1810.04805 .
  • Erdoğan, MM.(2014). Türkiye’deki Suriyeliler: Toplumsal kabul ve uyum araştırması, İstanbul Bilgi Üniv.Yayınları. https://www.milliyet.com.tr/gpt-3-nedir-gpt-3-neler-yapabiliyor 16712 erişim tarihi: 21.05.2021.
  • https://www.unhcr.org/tr/wp-content/uploads/sites/14/2020/01/Multecilerin-Hukuki-Durumuna-Iliskin-Sozlesme erişim tarihi: 11.04.2021 .
  • https://www.goc.gov.tr/gecici-koruma563, erişim tarihi: 15.08.2021.
  • https://www.sozcu.com.tr/2020/gundem/turkiyede-kac-suriyeli-var-kaci-tc-vatandasi-oldu-3274793 erişim tarihi: 11.09.2021.
  • https://www.istanpol.org/post/i̇stanbul-da-suriyeli erişim tarihi: 01.09.2021.
  • https://www.analyticsvidhya.com/blog/2019/06/understanding-transformers-nlp-state-of-the-art-models . erişim tarihi:11.04.2021
  • https://kaggle.com/abhinand05/bert-for-humans erişim tarihi:11.04.2021. https://www.analyticsvidhya.com/blog/2020/07/transfer-learning-for-nlp-fine-tuning-bert-for-text-classificatio erişim tarihi:21.04.2021.
  • Hua, Y. (2019) , Understanding BERT performance in propaganda analysis Proc Second Workshop Nat Lang Process Internet Freedom Censorsh Disinformation Propag, 135-138, Published online 2019, doi:10.18653/v1/D19-5019.
  • Karataş, İ.(2020). Türkiye’nin vatandaşlık politikalarının öteki algısındaki rolünü Suriyeli mülteciler üzerinden düşünmek , Süleyman Demirel Üniversitesi Fen-Edebiyat Fakültesi Sos Bilim Dergisi, 50, 17-42
  • Lan, Z/Chen, M/Goodman, S/Gimpel, K/Sharma, P/Soricut, R (2020), ALBERT: A Lite BERT for self-supervised learning of language representations . http://arxiv.org/abs/1909
  • Le, H/ Vial, L/Frej, J (2020), FlauBERT: Unsupervised language model pre-training for French http://arxiv.org/abs/1912.05372.
  • Munikar, M/Shakya, S/ Shrestha, A (2019), Fine-grained sentiment classification using BERT . Artificial Intelligence for Transforming Business and Society (AITB), 1, 1-5.
  • Nozza, D/Bianchi,F/ Hovy D (2020) What the [MASK]? making sense of language-specific BERT models . http://arxiv.org/abs/2001.06286
  • Orhan, O./ Gündoğar, SS. (2015). Suriyeli sığınmacıların Türkiye’ye etkileri, Ortadoğu Stratejik Araştırmalar Merkezi, Türkiye Ekonomik ve Sosyal Etüdler Vakfı, İstanbul.
  • Ozan, Ş/Taşar, DE (2021), Auto-tagging of short conversational sentences using natural language processing methods . http://arxiv.org/abs/2106.04959 .
  • Özdil, U/Arslan, B/Taşar, DE/ Polat, G/ Ozan, Ş (2021), Ad Text Classification with transformer-based natural language processing methods.http://arxiv.org/abs.
  • Öztürk, H/Değirmenci, A/ Güngör, O/Uskudarli, S (2020), The Role of Contextual word embeddings in correcting the ‘de/da’ clitic errors in Turkish . In: 2020 28th Signal Processing and Communications Applications Conference (SIU). Gaziantep-Türkiye, 1-4.
  • Pota, M/ Ventura, M/ Catelli, R/ Esposito, M(2021), An effective BERT-Based pipeline for twitter sentiment analysis: A case study in Italian . Sensors, 21(1), 1-21.
  • Rogers, A/ Kovaleva, O/ Rumshisky A (2021), A primer in BERTology: What we know about how BERT works Trans Assoc Comput Linguist, 8, 842-866.
  • Sevli̇, O/Kemaloğlu, N (2021), Olağandışı olaylar hakkındaki tweet’lerin gerçek ve gerçek dışı olarak google BERT modeli ile sınıflandırılması , Veri Bilimi, 4(1), 31-37
  • Schweter, S (2020), BERTurk - BERT Models for Turkish . Zenodo, doi:10.5281/zenodo.3770924
  • Sığırcı, İO/ Özgür, H/Oluk, A/ et al. (2020), Sentiment analysis of Turkish reviews on google play store 5th International Conference on Computer Science and Engineering (UBMK), 314-315.
  • Sun, C/ Qiu, X/ XuYi, Huang X (2019), How to fine-tune BERT for text classification? In: Sun M, Huang X, Ji H, Liu Z, Liu Y, eds. Chinese Computational Linguistics. Lecture Notes in Computer Science. Springer International Publishing; 2019:194-206. doi:10.1007/978-3-030-32381-3_16
  • Vaswani, A/Shazeer, N/Parmar N (2017), Attention ıs all you need . Published online December 5, http://arxiv.org/abs/1706.03762.
  • Wang, T/ Lu, K/ Chow, KP/ Zhu, Q (2020), COVID-19 Sensing: negative sentiment analysis on social media in china via BERT model . IEEE Access, 8, 138162-138169.
  • Yadav, A/ Vishwakarma, DK (2020), Sentiment analysis using deep learning architectures: a review, Artif Intell Rev. 53(6), 4335-4385.
There are 34 citations in total.

Details

Primary Language Turkish
Subjects Sociology
Journal Section ARAŞTIRMA MAKALELERİ
Authors

Engin Karaman 0000-0002-2336-6289

Publication Date December 31, 2022
Published in Issue Year 2022 Volume: 12 Issue: 2

Cite

APA Karaman, E. (2022). SURİYELİ MÜLTECİLERE UYGULANAN AYRIMCI-DIŞLAYICI TWİTLERİN BERT MODELİ İLE SINIFLANDIRILMASI. Ortadoğu Ve Göç, 12(2), 428-456. https://doi.org/10.31834/ortadoguvegoc.1148440