Yapay zekâ çalışmalarının nihai amacı, makineyi karar verebilen, çıkarım yapabilen, öngörebilen, tavsiyelerde bulunabilen ve diğer yüksek bilişsel işlevleri gerçekleştirebilen otonom bir faile/eyleyiciye dönüştürmektir. Büyük Dil Modellerinin sergilediği üstün yetenekler, bu amacın gerçekleştiğini ya da gerçekleşmesine ramak kaldığının adeta bir kanıtıdır, zira yapısal olmayan verileri işleme hızları ve veri çeşitliliğini çevikçe işleyebilme yetenekleri çeşitli alanlardaki geniş kullanımlarını mümkün kıldığından makine-insan arasındaki doğal dil iletişimini kesintisiz hâle getirmiştir. Ancak, bilim ve endüstride yetkin olabilmek için, bu tür yeteneklere sahip olan bir eyleyicinin güvenilir, yani eylemlerini ve aldığı kararları açıklayabilir olması gereklidir, ki hesap verebilme otonom bir failin başat niteliğidir. Bu bağlamda, bu makale, mevcut teknolojilerin halihazırda otonom bir açıklayıcı fail oluşturup oluşturmadıklarını veya makinenin otonom bir açıklayıcı fail olmasına zemin hazırlayıp hazırlamadıklarını belirlemeyi amaçlamaktadır. Çalışmanın ilk bölümü açıklama modellerindeki açıklama türlerini ve seviyelerini araştırarak günlük yaşamdaki açıklamaların doğasını anlamak için bir temel ortaya koyar. İkinci bölüm, Açıklanabilir Yapay Zekâ alanındaki açıklayıcı sistem türlerine odaklanarak yapay zekâ çalışmalarındaki açıklama modellerini inceler. Çalışmanın devamında ise, ikinci bölümdeki incelemeye ve İnsan-Bilgisayar Etkileşimi alanına dayanarak, güncel makine öğrenmesi modellerinin otonom açıklayıcı fail işlevi olup olmadığını ve ne ölçüde olduğunu araştırılır.
The holy grail of Artificial Intelligence (AI) is to transform the machine into an agent that can decide, make inferences, cluster the contents, predict, recommend, and exhibit similar higher cognitive faculties. The prowess of Large Language Models (LLMs) serves as evidence: they enable seamless natural language communication and widespread use across various fields by swiftly processing unstructured data and handling diverse datasets with agility. However, in order to be competent in the fields of science and industry, an agent with such capabilities must be reliable, i.e., accountable for its decisions and actions, which is a per se attribute of an autonomous agent. In this respect, this paper aims to determine whether state-of-the-art technologies have already created an autonomous explanatory agent or are paving the way for the machine to become an autonomous explanatory agent. To achieve this, the paper is structured as follows: The first part investigates the types and levels of explanations in explanation models, providing a foundation for understanding the nature of explanations in everyday life. The second part explores explanations in the context of artificial intelligence, focusing on types of explanatory systems in the research field of eXplainable AI (XAI). The third part delves into whether and to what extent the state-of-the-art machine learning models function as autonomous explanatory agents, based on the exploration in the second part and considering the field of Human-Computer Interaction.
Primary Language | English |
---|---|
Subjects | Systematic Philosophy (Other) |
Journal Section | Research Article |
Authors | |
Publication Date | July 15, 2024 |
Submission Date | May 21, 2024 |
Acceptance Date | July 12, 2024 |
Published in Issue | Year 2024 Issue: 79 |
Philosophy World is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License.