With the start of Industry 4.0 in 2011, new concepts and technologies have entered the IT literature. Some of these technologies are virtualization, modularity, big data and deduplication. Big data can be defined as data of a magnitude that exceeds the ability of traditional database systems to collect, store, manage and analyze data. Today, data is diverse, large and rapidly changing. This situation cannot be solved with the traditional database structure. With the emergence of big data, it has become difficult to process data with the algorithms used for data processing. Therefore, new algorithms and technologies have been developed. The most important of these technologies is data deduplication. Deduplication backs up data by dividing it into variable or fixed sizes. In this way, it aims to save storage space by storing only one copy of many repeated data. Today, "deduplication and compression" is an indispensable feature for data storage in both server-storge and hyper-converged architecture systems. Recently, artificial intelligence technologies are advancing very rapidly and their application areas are expanding. Therefore, Artificial Intelligence is a technology that will be very important for the industry and our lives in the future. The purpose of this paper is to give an idea about the relationship between deduplication technology and artificial intelligence by examining various deduplication systems and algorithms. Studies in the literature show that deduplication provides significant savings in storage space, the importance of data security, and the use of artificial intelligence and deduplication as a whole.
2011 yılında Endüstri 4.0’ın başlaması ile bilişim literatürüne yeni kavramlar ve teknolojiler girmiştir. Bu teknolojilerden bazıları sanallaştırma, modülerlik, büyük veri ve veri tekilleştirilmesidir. Büyük veri, geleneksel veritabanı sistemlerinde verilerin toplanması, saklanması, yönetilmesi ve çözümleme yeteneklerini aşan büyüklükteki veriler olarak ifade edilebilir. Günümüzde veriler çok çeşitli, büyük ve hızlı bir şekilde yer değiştirmektedir. Bu durum geleneksel veri tabanı yapısı ile çözülememektedir. Büyük verinin ortaya çıkmasıyla verinin işlenmesi için kullanılan algoritmalar ile verilerin işlenmesi zorlaşmıştır. Bu nedenle yeni algoritmalar ve teknolojiler geliştirilmiştir. Bu teknolojilerin en başında da veri tekilleştirilmesi gelmektedir. Veri tekilleştirme, verileri değişken veya sabit büyüklüklere bölerek yedeklemektedir. Bu sayede tekrarlanan birçok verinin yalnızca bir kopyasını saklayarak depolama alanından tasarruf sağlamayı amaçlamaktadır. Günümüzde hem server-storge, hemde hyper-converged (bütünleşik sistem) mimarisi sistemlerde veri depolama için “tekilleştirme ve sıkıştırma” vazgeçilmez bir özelliktir. Son zamanlarda Yapay zekâ teknolojileri çok hızlı ilerleme göstermekte ve uygulama alanları da genişlemektedir. Bu nedenle Yapay Zekâ, gelecekte endüstri ve hayatlarımız için çok önemli olacak bir teknoloji olmaktadır. Bu çalışmamın amacı çeşitli veri tekilleştirme sistemleri ve algoritmaları inceleyerek veri tekilleştirme teknolojisi ile yapay zekâ arasındaki ilişki hakkında fikir vermektir. Literatürdeki çalışmalar, veri tekilleştirmesi ile depolama alanında önemli ölçüde tasarruf sağlandığını, veri güvenliğinin önemini, yapay zekâ ile tekilleştirmenin bir bütün olarak kullanılmakta olduğunu göstermektedir.
Primary Language | English |
---|---|
Subjects | Engineering |
Journal Section | Review |
Authors | |
Early Pub Date | June 6, 2023 |
Publication Date | June 30, 2023 |
Acceptance Date | April 12, 2023 |
Published in Issue | Year 2023 |
This work is licensed under a Creative Commons Attribution 4.0 International License