Teorik Makale
BibTex RIS Kaynak Göster

Güvenilir Yapay Zeka ve İç Denetim

Yıl 2024, Sayı: 29, 112 - 126, 31.01.2024
https://doi.org/10.58348/denetisim.1384391

Öz

Yapay zekâ teknolojileri bugün hemen her alanda kullanılmaktadır. Kullanılan yapay zekâ uygulamalarının yasal, etik, güvenlik. açılardan ortaya çıkan riskleri yapay zekâ uygulamalarının güvenirliği açısından sorgulanmasına neden olmuştur ve güvenilir yapay zekâ alanında düzenlemeler yapılmaya başlanmıştır. Güvenilir yapay zekâ için ise bu sistemlerin denetimi gündeme gelmiştir. Bu açıdan değerlendirildiğinde iç denetim birimlerinin güvenilir yapay zekâ ile ilgili işletmelere sunacağı önemli katkılar olacaktır. İç denetim üst yönetime yapay zekâ uygulamalarının işletmelere kuruluşu aşamasında bu sistemlerin olası riskleri hakkında üst yönetime danışmanlık hizmeti vererek ve yapay zekâ uygulamalarının veri ve algoritma denetimlerini gerçekleştirerek güvence sağlayabilir. Bu kapsamda çalışmanın amacı güvenilir yapay zekâ denetimi ve işletmelere bu konuda iç denetim biriminin sağlayacağı katkılar olarak belirlenmiştir. İç denetim birimi yapay zekâ uygulamalarına ilişkin işletme tarafından oluşturulan iç kontrol faaliyetlerinin denetimini gerçekleştirerek ve bu risk değerlendirmelerinde danışmanlık yaparak işletmelere değer katabilecektir.

Etik Beyan

Güvenilir Yapay Zeka ve İç Denetim adlı çalışmanın, etik kurul izni gerektirmeyen çalışmalar arasında yer aldığını beyan ederim.

Kaynakça

  • Ağdeniz, Ş. (2020). İç denetçiler neden makine öğrenmesi kullanmak zorunda?. İç Denetim Kuruma Değer Katmak, Edt. Halis Kıral, Ankara:Seçkin Yayıncılık.
  • Bandy, J. (2021). Problematic machine behavior: A systematic literature review of algorithm audits. Proceedings of the acm on human-computer interaction, 5(CSCW1), 1-34.
  • Bansal. (2021, Ekim). https://www.forbes.com/sites/forbestechcouncil/2021/10/14/flying-blind-how-bad-data-undermines-business/?sh=11efc97229e8 adresinden alındı. (Erişim Tarihi, 27 Eylül 2023).
  • Beckstrom, J.R. 2021.Auditing machine learning algorithms. International Journal of Government Auditing, Winter, 40-42.
  • Belpaeme, T., Deschuyteneer, J., Oetringer, D. &Wolferrt, P. (2019). The potential of social robots for persuasion and manipulation:a proof of concept study. https://media.kasperskycontenthub.com/wp-content/uploads/sites/43/2019/10/14081257/Robots_social_impact_eng.pdf adresinden alınmıştır. (Erişim Tarihi, 10 Eylül 2023).
  • Brown, S., Davidovic, J., & Hasan, A. (2021). The algorithm audit: scoring the algorithms that score us. Big Data & Society, 8(1). https://doi.org/10.1177/2053951720983865
  • Calagna, K., Cassidy, B. & Park, A. (2021). Applying The Coso Framework And Principles To Help Implement And Scale Artifıcial Intellıgence. https://www.wlrk.com/docs/Realize-the-Full-Potential-of-Artificial-Intelligence.pdf adresinden alındı. (Erişim Tarihi, 10 Eylül 2023)
  • Clavell, G.G., Zamorano, M.M., Castillo, C., Smith, O. & Matic, A. (2020, February). Auditing Algorithms: On Lessons Learned and the Risks of Data Minimization. In proceedings of the AAAI/ACM conference on AI, ethics, and society, (ss. 265-271).February 7-8, Newyork.
  • European Commision (2023). https://ec.europa.eu/commission/presscorner/detail/en/ip_23_5379. (Erişim Tarihi, 6 Kasım 2023).
  • European Parliament (2023). https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence. (Erişim Tarihi, 6 Kasım 2023).
  • EY (2020). EY Türkiye üçüncü taraf kaynaklı teknoloji ve siber risk yönetimi değerlendirme raporu kasım 2020. https://assets.ey.com/content/dam/ey-sites/ey-com/tr_tr/pdf/2020/11/ucuncu-taraf-kaynakli-teknoloji-ve-siber-risklerinizi-nasil-yonetiyorsunuz.pdf adresinden alındı. (Erişim Tarihi, 4 Aralık 2023)
  • Fazlıoğlu, M. (2023). US federal ai governance:laws, policies and strategies. https://iapp.org/resources/article/us-federal-ai-governance/ adresniden alındı. (Erişim Tarihi, 6 Kasım 2023)
  • IIA. (2017a). Küresel bakış açıları ve anlayışlar yapay zekâ- iç denetim mesleğine ilişkin dikkate alınması gerekenler
  • IIA. (2017b). Küresel bakış açıları ve anlayışlar- IIA’nın yapay zekâ denetim çerçevesi, pratik uygulamalar, bölüm a.
  • IIA. (2017c). GTAG:understanding and auditing big data.
  • IIA. (2018). Küresel bakış açıları ve anlayışlar- IIA’nın yapay zekâ denetim çerçevesi, pratik uygulamalar, bölüm b.
  • IIA. (2023). Global internal audit standards 2023 draft for public comment.
  • Information Commissioner’s Office. (2020, Şubat). Guidance on the AI Auditing Framework: Draft Guidance for Consultation. Retrieved February 11, 2021, https://ico.org.uk/media/about-the-ico/consultations/ 2617219/guidance-on-the-ai-auditing-framework-draft-for-consultation.pdf adresinden alındı.
  • ISACA. (2018) Auditing Artificial Intelligence. https://ec.europa.eu/futurium/en/system/files/ged/auditing-artificial-intelligence.pdf. adresinden alındı. (Erişim Tarihi, 19 Haziran 2023)
  • Kinkela, K. & Harris, P. (2022). COSO new guidelines to aid internal auditors for implementing artifical ıntelligence. Internal Auditing, 37(1), 40-43.
  • Koshiyama, A.,Kazim, E., Treleaven, P., Rai, P., Szpruch, L., Pavey, G., Ahamat, G., Leutner, F., Goebel, R., Knight, A., Adams, J., Hitrova, C., Barnett, J., Nachev, P., Barber, D., Chamorro-Premuzic, T., Klemmer, K., Gregorovic, M., Khan, S. & Lomas, E. (2021). (ss. 33-44), Towards Algorithm Auditing: A Survey on Managing Legal, Ethical and Technological Risks of AI, ML and Associated Algorithms Proceedings of the 2020 conference on fairness accountability and transparency. Available at SSRN: https://ssrn.com/abstract=3778998 or http://dx.doi.org/10.2139/ssrn.3778998
  • Koshiyama, A., Kazim, E. & Treleaven, P. (2022). Algorithm auditing: managing the legal, ethical and technological risks of artifical intelligence, machine learning ans associated algortihms. Computer, 55(4), 40-50.
  • KVKK, (2021). Yapay zeka alanında kişisel verilerin korunmasına dair tavsiyeler. https://www.kvkk.gov.tr/Icerik/7048/Yapay-Zeka-Alaninda-Kisisel-Verilerin-Korunmasina-Dair-Tavsiyeler adresinden alındı. (Erişim Tarihi, 7 Kasım 2023)
  • Landers, R. N., & Behrend, T. S. (2023). Auditing the AI auditors: A framework for evaluating fairness and bias in high stakes AI predictive models. American Psychologist, 78(1), 36.
  • Minkkinen, M., Laine, J. & Mäntymäki, M. Continuous auditing of artificial intelligence: a conceptualization and assessment of tools and frameworks. DISO 1, 21 (2022). https://doi.org/10.1007/s44206-022-00022-2
  • Mökander, J., Schuett, J., Kirk, H. R., & Floridi, L. (2023). Auditing large language models: a three-layered approach. AI and Ethics, 1-31.
  • Munoko, I., Brown-Liburd, H. L., & Vasarhelyi, M. (2020). The ethical implications of using artificial intelligence in auditing. Journal of Business Ethics, 167, 209-234.
  • Naqvi, Al. (2020). Artificial intelligence for audit, forensic accounting and valuation. John Wiley and Sons.
  • Nilsson, N.J. (2018). Yapay zekâ geçmişi ve geleceği. İstanbul:Boğaziçi Üniversitesi Yayınevi.
  • NIST. (2023). Artificial intelligence risk management framework (AI RMF 1.0). https://doi.org/10.6028/NIST.AI.100-1 adresinden alındı. (Erişim Tarihi, 10 Eylül 2023)
  • Raji, I.D., Smart, A. White, R. N., Mitchell, M., Gebru, T., Hutchinson, B., Smith-Loud, J., Theron, D., & Barnes, P. (2020). Closing the AI Accountability Gap: Defining an End-to-End Framework for Internal Algorithmic Auditing. In Conference on Fairness, Accountability, and Transparency (FAT* ’20), January 27–30, 2020, Barcelona, Spain. ACM, New York, NY, USA, 12 pages. https://doi.org/10.1145/3351095. 3372873
  • Roberts, H., Babuta, A., Morley, J., Thomas, C., Taddeo, M.&Floridi, L. (2023). Artificial intelligence regulation in the united kingdom:a path to good governance and global leadership?. Internet Policy Review, 12(2), 1-31.
  • Sandu, I., Wiersma, M. & Manichand, D. (2022). Time to audit your algortihms. Maandblad voor Accountancy en Bedrijfseconomie 96(7/8), 253–265 DOI 10.5117/mab.96.90108
  • Sandvig, C., Hamilton, K., Karahalios, K., & Langbort, C. (2014). Auditing algorithms: research methods for detecting discrimination on internet platforms. Data and discrimination: converting critical concerns into productive inquiry, 22(2014), 4349-4357.
  • Say, C. (2018). Yapay zekâ. İstanbul:Bilim ve Gelecek Kitaplığı.
  • Selimoğlu, S.K. & Özbek, C.Y. (2018). İç denetim. Ankara:Nobel Yayınevi.
  • Şahinaslan, Ö., Şahinaslan, E., & Küçükali, E. (2023). Üçüncü taraf yazılım bileşenlerinden kaynaklanan zayıflıkların tespiti ve yönetimine ilişkin bir uygulama. Denetişim, (28), 53-74.
  • Ulusal Yapay Zekâ Stratejisi. (2021). https://cbddo.gov.tr/SharedFolderServer/Genel/File/TR-UlusalYZStratejisi2021-2025.pdf adresinden alınmıştır. (Erişim Tarihi, 10 Eylül 2023).
  • Yıldız, B. (2009). Finansal analizde yapay zeka. İstanbul: Beta.
  • Yıldız, B. & Ağdeniz, Ş. 2019. Denetim 4.0’ın teknolojik altyapısı. Muhasebe ve Denetime Bakış, 58, 83-102.
  • WEF. (2023). The future of jobs report 2023. https://www.weforum.org/publications/the-future-of-jobs-report-2023/ adresinden alınmıştır. (Erişim Tarihi, 15 Mayıs 2023).
  • Wright, C. (2017). Tomorrow's ERM today. Internal Auditor, 18-19.
  • İnternet Kaynakları
  • ISO. (2023). ISO/IEC information technology artificial intelligence guidance on risk management. http://www.iso.org. (Erişim Tarihi, 6 Kasım, 2023)
  • Unesco (2023). Ethics of artificial intelligence. https://www.unesco.org/en/artificial-intelligence/recommendation-ethics. (Erişim Tarihi, 6 Kasım 2023)
  • VOA Türkçe. (2023). G7 risk temelli yapay zeka düzenlemesi benimsenmeli. https://www.voaturkce.com/a/g7-risk-temelli-yapay-zekâ-duzenlemesi-benimsenmeli/7073561.html. (Erişim Tarihi, 19 Haziran 2023)
  • WEF. (2023). AI governance alliance. http://www.weforum.org. (Erişim Tarihi, 6 Kasım, 2023)

THRUSTWORTHY ARTIFICIAL INTELLIGENCE AND INTERNAL AUDIT

Yıl 2024, Sayı: 29, 112 - 126, 31.01.2024
https://doi.org/10.58348/denetisim.1384391

Öz

Artificial intelligence technologies are used in almost every field today. The artificial intelligence applications used have social, ethical, etc. the risks arising from these aspects have caused the reliability of artificial intelligence applications to be questioned and regulations have begun to be made in the field of thrustworthy artificial intelligence. For thrustworthy artificial intelligence, the control of these systems has come to the fore. When evaluated from this perspective, internal audit departments will have significant contributions to businesses related to thrustworthy artificial intelligence. Internal audit can provide assurance to senior management by providing consultancy services to senior management about the possible risks of these systems during the installation of artificial intelligence applications in businesses and by performing data and algorithm audits of artificial intelligence applications. In this context, the purpose of the study was determined as thrustworthy artificial intelligence auditing and the contributions of the internal audit unit to businesses in this regard. The internal audit unit will be able to add value to businesses by auditing the internal control activities created by the business regarding artificial intelligence applications and providing consultancy in these risk assessments.

Kaynakça

  • Ağdeniz, Ş. (2020). İç denetçiler neden makine öğrenmesi kullanmak zorunda?. İç Denetim Kuruma Değer Katmak, Edt. Halis Kıral, Ankara:Seçkin Yayıncılık.
  • Bandy, J. (2021). Problematic machine behavior: A systematic literature review of algorithm audits. Proceedings of the acm on human-computer interaction, 5(CSCW1), 1-34.
  • Bansal. (2021, Ekim). https://www.forbes.com/sites/forbestechcouncil/2021/10/14/flying-blind-how-bad-data-undermines-business/?sh=11efc97229e8 adresinden alındı. (Erişim Tarihi, 27 Eylül 2023).
  • Beckstrom, J.R. 2021.Auditing machine learning algorithms. International Journal of Government Auditing, Winter, 40-42.
  • Belpaeme, T., Deschuyteneer, J., Oetringer, D. &Wolferrt, P. (2019). The potential of social robots for persuasion and manipulation:a proof of concept study. https://media.kasperskycontenthub.com/wp-content/uploads/sites/43/2019/10/14081257/Robots_social_impact_eng.pdf adresinden alınmıştır. (Erişim Tarihi, 10 Eylül 2023).
  • Brown, S., Davidovic, J., & Hasan, A. (2021). The algorithm audit: scoring the algorithms that score us. Big Data & Society, 8(1). https://doi.org/10.1177/2053951720983865
  • Calagna, K., Cassidy, B. & Park, A. (2021). Applying The Coso Framework And Principles To Help Implement And Scale Artifıcial Intellıgence. https://www.wlrk.com/docs/Realize-the-Full-Potential-of-Artificial-Intelligence.pdf adresinden alındı. (Erişim Tarihi, 10 Eylül 2023)
  • Clavell, G.G., Zamorano, M.M., Castillo, C., Smith, O. & Matic, A. (2020, February). Auditing Algorithms: On Lessons Learned and the Risks of Data Minimization. In proceedings of the AAAI/ACM conference on AI, ethics, and society, (ss. 265-271).February 7-8, Newyork.
  • European Commision (2023). https://ec.europa.eu/commission/presscorner/detail/en/ip_23_5379. (Erişim Tarihi, 6 Kasım 2023).
  • European Parliament (2023). https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence. (Erişim Tarihi, 6 Kasım 2023).
  • EY (2020). EY Türkiye üçüncü taraf kaynaklı teknoloji ve siber risk yönetimi değerlendirme raporu kasım 2020. https://assets.ey.com/content/dam/ey-sites/ey-com/tr_tr/pdf/2020/11/ucuncu-taraf-kaynakli-teknoloji-ve-siber-risklerinizi-nasil-yonetiyorsunuz.pdf adresinden alındı. (Erişim Tarihi, 4 Aralık 2023)
  • Fazlıoğlu, M. (2023). US federal ai governance:laws, policies and strategies. https://iapp.org/resources/article/us-federal-ai-governance/ adresniden alındı. (Erişim Tarihi, 6 Kasım 2023)
  • IIA. (2017a). Küresel bakış açıları ve anlayışlar yapay zekâ- iç denetim mesleğine ilişkin dikkate alınması gerekenler
  • IIA. (2017b). Küresel bakış açıları ve anlayışlar- IIA’nın yapay zekâ denetim çerçevesi, pratik uygulamalar, bölüm a.
  • IIA. (2017c). GTAG:understanding and auditing big data.
  • IIA. (2018). Küresel bakış açıları ve anlayışlar- IIA’nın yapay zekâ denetim çerçevesi, pratik uygulamalar, bölüm b.
  • IIA. (2023). Global internal audit standards 2023 draft for public comment.
  • Information Commissioner’s Office. (2020, Şubat). Guidance on the AI Auditing Framework: Draft Guidance for Consultation. Retrieved February 11, 2021, https://ico.org.uk/media/about-the-ico/consultations/ 2617219/guidance-on-the-ai-auditing-framework-draft-for-consultation.pdf adresinden alındı.
  • ISACA. (2018) Auditing Artificial Intelligence. https://ec.europa.eu/futurium/en/system/files/ged/auditing-artificial-intelligence.pdf. adresinden alındı. (Erişim Tarihi, 19 Haziran 2023)
  • Kinkela, K. & Harris, P. (2022). COSO new guidelines to aid internal auditors for implementing artifical ıntelligence. Internal Auditing, 37(1), 40-43.
  • Koshiyama, A.,Kazim, E., Treleaven, P., Rai, P., Szpruch, L., Pavey, G., Ahamat, G., Leutner, F., Goebel, R., Knight, A., Adams, J., Hitrova, C., Barnett, J., Nachev, P., Barber, D., Chamorro-Premuzic, T., Klemmer, K., Gregorovic, M., Khan, S. & Lomas, E. (2021). (ss. 33-44), Towards Algorithm Auditing: A Survey on Managing Legal, Ethical and Technological Risks of AI, ML and Associated Algorithms Proceedings of the 2020 conference on fairness accountability and transparency. Available at SSRN: https://ssrn.com/abstract=3778998 or http://dx.doi.org/10.2139/ssrn.3778998
  • Koshiyama, A., Kazim, E. & Treleaven, P. (2022). Algorithm auditing: managing the legal, ethical and technological risks of artifical intelligence, machine learning ans associated algortihms. Computer, 55(4), 40-50.
  • KVKK, (2021). Yapay zeka alanında kişisel verilerin korunmasına dair tavsiyeler. https://www.kvkk.gov.tr/Icerik/7048/Yapay-Zeka-Alaninda-Kisisel-Verilerin-Korunmasina-Dair-Tavsiyeler adresinden alındı. (Erişim Tarihi, 7 Kasım 2023)
  • Landers, R. N., & Behrend, T. S. (2023). Auditing the AI auditors: A framework for evaluating fairness and bias in high stakes AI predictive models. American Psychologist, 78(1), 36.
  • Minkkinen, M., Laine, J. & Mäntymäki, M. Continuous auditing of artificial intelligence: a conceptualization and assessment of tools and frameworks. DISO 1, 21 (2022). https://doi.org/10.1007/s44206-022-00022-2
  • Mökander, J., Schuett, J., Kirk, H. R., & Floridi, L. (2023). Auditing large language models: a three-layered approach. AI and Ethics, 1-31.
  • Munoko, I., Brown-Liburd, H. L., & Vasarhelyi, M. (2020). The ethical implications of using artificial intelligence in auditing. Journal of Business Ethics, 167, 209-234.
  • Naqvi, Al. (2020). Artificial intelligence for audit, forensic accounting and valuation. John Wiley and Sons.
  • Nilsson, N.J. (2018). Yapay zekâ geçmişi ve geleceği. İstanbul:Boğaziçi Üniversitesi Yayınevi.
  • NIST. (2023). Artificial intelligence risk management framework (AI RMF 1.0). https://doi.org/10.6028/NIST.AI.100-1 adresinden alındı. (Erişim Tarihi, 10 Eylül 2023)
  • Raji, I.D., Smart, A. White, R. N., Mitchell, M., Gebru, T., Hutchinson, B., Smith-Loud, J., Theron, D., & Barnes, P. (2020). Closing the AI Accountability Gap: Defining an End-to-End Framework for Internal Algorithmic Auditing. In Conference on Fairness, Accountability, and Transparency (FAT* ’20), January 27–30, 2020, Barcelona, Spain. ACM, New York, NY, USA, 12 pages. https://doi.org/10.1145/3351095. 3372873
  • Roberts, H., Babuta, A., Morley, J., Thomas, C., Taddeo, M.&Floridi, L. (2023). Artificial intelligence regulation in the united kingdom:a path to good governance and global leadership?. Internet Policy Review, 12(2), 1-31.
  • Sandu, I., Wiersma, M. & Manichand, D. (2022). Time to audit your algortihms. Maandblad voor Accountancy en Bedrijfseconomie 96(7/8), 253–265 DOI 10.5117/mab.96.90108
  • Sandvig, C., Hamilton, K., Karahalios, K., & Langbort, C. (2014). Auditing algorithms: research methods for detecting discrimination on internet platforms. Data and discrimination: converting critical concerns into productive inquiry, 22(2014), 4349-4357.
  • Say, C. (2018). Yapay zekâ. İstanbul:Bilim ve Gelecek Kitaplığı.
  • Selimoğlu, S.K. & Özbek, C.Y. (2018). İç denetim. Ankara:Nobel Yayınevi.
  • Şahinaslan, Ö., Şahinaslan, E., & Küçükali, E. (2023). Üçüncü taraf yazılım bileşenlerinden kaynaklanan zayıflıkların tespiti ve yönetimine ilişkin bir uygulama. Denetişim, (28), 53-74.
  • Ulusal Yapay Zekâ Stratejisi. (2021). https://cbddo.gov.tr/SharedFolderServer/Genel/File/TR-UlusalYZStratejisi2021-2025.pdf adresinden alınmıştır. (Erişim Tarihi, 10 Eylül 2023).
  • Yıldız, B. (2009). Finansal analizde yapay zeka. İstanbul: Beta.
  • Yıldız, B. & Ağdeniz, Ş. 2019. Denetim 4.0’ın teknolojik altyapısı. Muhasebe ve Denetime Bakış, 58, 83-102.
  • WEF. (2023). The future of jobs report 2023. https://www.weforum.org/publications/the-future-of-jobs-report-2023/ adresinden alınmıştır. (Erişim Tarihi, 15 Mayıs 2023).
  • Wright, C. (2017). Tomorrow's ERM today. Internal Auditor, 18-19.
  • İnternet Kaynakları
  • ISO. (2023). ISO/IEC information technology artificial intelligence guidance on risk management. http://www.iso.org. (Erişim Tarihi, 6 Kasım, 2023)
  • Unesco (2023). Ethics of artificial intelligence. https://www.unesco.org/en/artificial-intelligence/recommendation-ethics. (Erişim Tarihi, 6 Kasım 2023)
  • VOA Türkçe. (2023). G7 risk temelli yapay zeka düzenlemesi benimsenmeli. https://www.voaturkce.com/a/g7-risk-temelli-yapay-zekâ-duzenlemesi-benimsenmeli/7073561.html. (Erişim Tarihi, 19 Haziran 2023)
  • WEF. (2023). AI governance alliance. http://www.weforum.org. (Erişim Tarihi, 6 Kasım, 2023)
Toplam 47 adet kaynakça vardır.

Ayrıntılar

Birincil Dil Türkçe
Konular İç Denetim
Bölüm Makale
Yazarlar

Şafak Ağdeniz 0000-0003-0373-4694

Yayımlanma Tarihi 31 Ocak 2024
Gönderilme Tarihi 1 Kasım 2023
Kabul Tarihi 27 Aralık 2023
Yayımlandığı Sayı Yıl 2024 Sayı: 29

Kaynak Göster

APA Ağdeniz, Ş. (2024). Güvenilir Yapay Zeka ve İç Denetim. Denetişim(29), 112-126. https://doi.org/10.58348/denetisim.1384391

TR Dizin'de yer alan Denetişim dergisi yayımladığı çalışmalarla; alanındaki profesyoneller, akademisyenler ve düzenleyiciler arasında etkili bir iletişim ağı kurarak, etkin bir denetim ve yönetim sistemine ulaşma yolculuğunda önemli mesafelerin kat edilmesine katkı sağlamaktadır.