493 okumalar
493 okumalar

Geleneksel veri depoları Agentic AI tarafından kaçırılıyor mu?

ile William Guo13m2025/06/17
Read on Terminal Reader

Çok uzun; Okumak

Anasayfa > Bilim-Teknoloji Haberleri > Hazır mısınız?
featured image - Geleneksel veri depoları Agentic AI tarafından kaçırılıyor mu?
William Guo HackerNoon profile picture
0-item

Abstract: From a technical architecture perspective, I believe this wave of AI will profoundly reshape the entire software ecosystem. DSS systems are designed around the logic of human decision-making as the ultimate consumer. However, with the advent of the Agentic AI era, the final "consumer" is likelier to be an agent. This will lead to a complete redesign—or even elimination—of traditional data warehouses and complex ETL pipelines. Conventional data warehouses emphasize structure and query patterns, but they will be replaced by Agentic Data Stack architectures focusing on semantics and response patterns.


Açıklama: Snowflake CEO Değişikliği'nin Arkasındaki Sinyal

2024 baharında, bulut veri depolama alanında bir yıldız olan Snowflake, liderlikte bir değişiklik ilan etti: Google'ın reklam işinin eski başkanı Sridhar Ramaswamy, Snowflake'in 60 milyar dolar değerine ulaşmasına yardımcı olan efsanevi CEO'su Frank Slootman'ı yerine getirdi.


Eğer bu sadece rutin bir yönetici şaşkınlık olduğunu düşünüyorsanız, tam resmini göremiyorsunuz.Gerçek anlamı, veri depolama dünyasının paradigmasının sessiz ama derin bir dönüşüm geçirmesidir.


OLTP veritabanlarından MPP veri depolarına, yerleşik MPP bilgisayardan vektorize bulut veri motorlarına, her aşama bir sonraki nesil teknolojiye – ve bir önde gelen üründen diğerine – bir atlama anlamına gelir.

OLTP veritabanlarından MPP veri depolarına, yerleşik MPP bilgisayardan vektorize bulut veri motorlarına, her aşama bir sonraki nesil teknolojiye – ve bir önde gelen üründen diğerine – bir atlama anlamına gelir.


Slootman, “Data Depolama Altın Çağını” temsil etti. bulut tabanlı, çok kiralık mimarilere bahis etti ve Snowflake’i yeni nesil veri platformunun merkezi merkezi olarak konumlandırdı.Onun liderliğinde, Snowflake doğrudan ilk işverenimi – eski veri depolama devini Teradata – rahatsız etti ve piyasa değeri 10,2 milyar dolardan sadece 2 milyar dolara düştü.


Düştüğünde, Snowflake'in resmi blogundaki anahtar kelimeler hafifçe şunu değiştirdi: AI-first, agent-driven ve semantik odaklı veri mimarisi.


Bu tesadüf değil, zamanın bir işareti.

Bu tesadüf değil, zamanın bir işareti.


Aynı zamanda, Silicon Valley'deki en ileri düşünen VC'ler yeni bir konsept üzerinde bahis yapıyor: "Ajentik AI." Bu yeni paradigmada, AI artık sadece bir model değil - algılayabilen, eyleme geçebilecek, hedefler belirleyebilecek ve işbirliği yapabilecek bir ajan.


İşte şu soru:


AI artık sadece bir “chat aracı” değil, iş değişikliklerini algılayabilen, niyetleri anlayan ve eylemleri gerçekleştiren akıllı bir ajan olduğunda, insanlar için tasarlanmış geleneksel veri depoları hala ajanların ihtiyaçlarını karşılayabilir mi?

AI artık sadece bir “chat aracı” değil, iş değişikliklerini algılayabilen, niyetleri anlayan ve eylemleri gerçekleştiren akıllı bir ajan olduğunda, geleneksel veri depoları,İnsanlarMüşterilerin ihtiyaçlarını karşılamaya devam ediyor mu?


Bilgi depoları, bir zamanlar hayati bir işletme “bilgi varlıkları” olarak kabul edildiğinde, şimdi ajanlar için sadece “bilgi materyali kütüphaneleri” haline gelme riski altındadır. Aslında, “malzeme” terimi bile değeri kaybediyor, çünkü bir Agentic Data Stack doğrudan hammadde verilerine erişebilir ve üst katman satış ajanlarına, risk ajanlarına ve diğerlerine semantik + veri biçiminde besleyebilir.


The real danger isn't just being eliminated—it's that you're still operating by the old rules while the world has already flipped the script.

Gerçek tehlike sadece ortadan kaldırılmıyor - dünya zaten senaryoyu döndürdüğünde hala eski kurallara göre çalışıyorsun.


Bu, veri depolarını küçümsemekle ilgili değil, teknoloji tarihinin tekrarlayan döngüleri hakkında.Hadoop ve Iceberg bir zamanlar veri gölü manzarasını yeniden şekillendirdiği gibi, Agentic AI şimdi kurumsal büyük veri mimarisini yeniden yazıyor.


1970-2024: Veri Depolama Mimarlıklarının Gelişimi

1970: Bilgi Depolama'nın Babası - Bill Inmon

“Data Warehousing’ın babası” olan Bill Inmon, ilk olarak bir EDW (Enterprise Data Warehouse) kavramını “subject-oriented, integrated, time-variant, and non-volatile collection of data” olarak önerdi ve bundan sonraki yarım yüzyıl boyunca kurumsal veri mimarisi için temel oluşturdu.


İlk kitabın çevirisine katılmak ve okumak için şanslıyım.Building the Data WarehousePeking Üniversitesi’nde 20 yıldan fazla bir süredir Prof. Tang Shiwei’nin rehberliğindeyim.Bu kitabın konu alanları, veri katmanı mimarisi ve yavaş yavaş değişen boyutları (tarihle bağlantılı tablolar) son yüzyıldan günümüze kadar devam etti ve veri depolama için temel kavramlar haline geldi.


1983: Teradata Doğdu - MPP Mimarisi Sahne Alıyor

1983 yılında kurulan Teradata, önümüzdeki 30 yıl boyunca kurumsal veri depolama altyapısını yöneten şirketti. Bu da mezun olduktan sonra ilk işimdi. Teradata, veri sistemlerine MPP (Massively Parallel Processing) mimarisini tanıttı. sıkı bir şekilde entegre yazılım ve donanım ve Bynet tabanlı MPP tasarımıyla, Teradata, büyük veri işleme ve karmaşık SQL sorgularında Oracle ve DB2'yi önemli ölçüde öne çıkardı.


Teradata'yı ilk kullandığımda, daha sonra geniş masa sorguları için ClickHouse'u denediğimde olduğu kadar şaşırdım.


Teradata'ya katıldığımda, hala NCR'nin altındaki bir bölümdü ve vizem bu şekilde görünüyordu.Veritabanı Alma Mater'a Veda - Teradata Resmi olarak Çin'den Çıkıyor.



1996: Kimball “Snowflake Schema” önerir; OLAP motorları ortaya çıkar

Bill Inmon'dan sonra, Ralph Kimball "data mart" kavramını tanıttı ve yıldız şeması ve kar tanesi şeması ile veri modellemeyi yeniden tanımladı. Sonraki birkaç on yıl boyunca, veri mimarları, ilk önce merkezli bir veri deposu veya ayrı bir veritabanı inşa etmeyi tartışmaya devam etti. "Dimensional modeller" ve "snowflake şeması" veri mühendisleri için çağrı kartları oldu.


BI tabakasında, Hyperion Essbase ve Cognos gibi MOLAP motorları ortaya çıkmaya başladı.


Yıllar sonra, yeni nesil veri depolama şirketleri bile, snowflake şemasından ilham alan “Snowflake” markası olarak kabul ettiler.


2013 The Big Data Boom – Hadoop Takes the World by Storm Türkçe Altyazılı izle

With the release of Apache Hadoop in 2006, enterprises began widely adopting big data systems with low storage costs. In Big Data: Yaşam, Çalışma ve Düşünme Yöntemimizi Değiştirecek Bir DevrimViktor Mayer-Schönberger, “4V” ile büyük verileri tanımladı:VolumeveVelocityveVarietyveValue.


Photo from 2015: The author with Viktor Mayer-Schönberger

Bu, büyük veri platformu inşaatının büyük bir dalgasının başlangıcıydı. Sonraki 10 yılda, yeni nesil büyük veri teknolojileri ortaya çıktı—Apache Hadoop, Hive, Spark, Kafka, DolphinScheduler, SeaTunnel, Iceberg ve daha fazlası. Büyük veri platformları geleneksel veri depolarının egemenliğini sarsmaya başladı. Aslında, 2015'ten sonra, petabyte ölçekli veri depolama ile uğraşan çoğu Çinli işletme artık geleneksel MPP veri depolama mimarisi kullanmadı. Bunun yerine, platformlarını Hadoop veya Iceberg tabanlı büyük veri / veri gölü mimarileri kullanarak inşa ettiler.


2015: Snowflake Sahneye Çıktı, Yeni Veri Seti Yükseldi

Bulutun yükselişi ve Marcin Zukowski’nin “veksiyonlu” motorlar üzerine yazdığı makalenin yayınlanmasıyla Snowflake, bulut tabanlı bir mimarisi ile ortaya çıktı, bu da geleneksel veri depolama düşüncesini tamamen bozar.


Snowflake “Data Warehouse”’u “Data Cloud” haline getirdi. Bu, tamamen yeni nesil veri depolama teknolojisi yığınlarının ortaya çıkmasına yol açtı. Fivetran, Dagster, Airbyte, DBT ve WhaleStudio gibi araçlar ortaya çıktı.Yeni Data StackAslında, önceki nesil ETL ve veri mühendisliği araçları -Informatica, Talend, DataStage- 1980'lerde ortaya çıktı.


Genel olarak, son on yılda, geleneksel veri depoları, büyük veri platformları, bulut veri depoları veya veri gölleri olsun, onların mimarisi temel olarak aşağıdaki grafikte gösterilen yapıyı izledi:



Inmon döneminde, bu mimari bir DSS (Decision Support System) olarak adlandırıldı.the “support” was always intended for humans.Tüm veri depolama teknolojisi, insan kullanıcıları için tasarlanmıştır.


Veritabanının mimarisi ayrıca veri mühendisleri için de tasarlanmıştır. İşte bu yüzden ETL mühendislerine geliştirmede yardımcı olmak için çok sayıda konu alanı, atomik katmanlar, toplama katmanları ve ölçüm katmanları vardı. BI araçları da yıldız ve kar taneleri şemalarını tanımlamak için, raporlar ve panolar için sürükleyici arayüzleri vardı.


But in the era of large-model agents, all of this is about to change dramatically.


Are Agents Devouring Traditional Data Warehouses?!

2022'nin sonunda, OpenAI ChatGPT'yi piyasaya sürdü ve büyük dil modelleri çağını başlattı.


2023 yılından bu yana Llama, Claude, Gemini, GPT-4o, DeepSeek... multimodal modeller hızla gelişmiştir.


2024 yılında, RAG (Retrieval-Augmented Generation) teknolojisi ana akım haline geldi. LlamaIndex, LangChain ve Dify gibi araçlar yaygın olarak kabul edildi. AI, kurumsal alan bilgilerini entegre etmeye başladı ve gerçekten “bilgi sahibi bir yardımcı” oldu.


2025 yılına kadar, Agent mimarisi tamamen yükselmiştir. AutoGPT, Fonksiyon Çağrısı ve MCP protokolü gibi teknolojiler ve protokoller ortaya çıktı. AI artık sadece bir sohbet aracı değil - şimdi algı, planlama ve yürütme yeteneğine sahiptir, bir "dijital çalışan" haline gelmiştir.


Veri alanında, büyük modellerin gelişimi de büyük bir bozulma getirdi. ChatGPT'nin Veri Analizi'ni kullandınız mı? Eğer öyleyse, performansından muhtemelen şaşırdınız. Bir işletme kullanıcısının bir veri kümesinden ayrıntılı bir analitik rapor oluşturmasına birçok bakış açısıyla yardımcı olabilir. Bir junior veri analizcisini pratik olarak değiştirebilir. Çeşitli katmanlarda, ChatBI ve TXT2SQL gibi birçok "otomatik" araç da ortaya çıktı - her biri büyük modeller ve ajanları kullanarak veri depolama geliştirme süreçlerini otomatik veya yarı otomatik hale getirmek için.



Gelecekte, sadece veri analizinde değil, reklam kampanyalarının optimizasyonu, müşteri hizmetleri ve risk yönetimi alanında da daha fazla ajan ortaya çıkacak.


Ultimately, AI will no longer be a “passive answering tool,” but an “intelligent agent proactively achieving goals.”


Son 20 yılda, veri platformlarının “kullanıcıları” genellikle veri mühendisleri, analistler ve BI profesyonelleriydi.

Önümüzdeki 20 yılda,every role—from analyst to supply chain operator—may be redefined by Agents:

  • Marketers will have a Campaign Agent that automatically integrates multi-channel data, optimizes placements, and generates copy;

  • Customer service reps will have a Support Agent that’s more than a chatbot—it will be a context-aware assistant with knowledge graphs and memory;

  • The supply chain team will have a Procurement Agent that parses orders, tracks delivery timelines, fetches ERP data, and auto-replenishes inventory;

  • Legal teams will have a Compliance Agent, HR will have a Hiring Agent, and even the board of directors could have a Board Agent…


Her gün yazdığınız SQL, oluşturduğunuz raporlar ve katıldığınız OPS toplantıları, tümüyle Agent tarafından tetiklenen eylemler, semantik komutlar ve otomatik yanıtlar haline geliyor.



Ancak acil bir gerçek şu şekilde:


Verilerin son kullanıcıları Ajanlar ise ve hatta veri depolama geliştirme Ajanlar tarafından yapılırsa - ve verileri kullanan nihai karar vericiler "insanlar" yerine Ajanlar ise - orijinal DSS (Başvuru Destek Sistemi) veri depolama mimarisi hala mantıklı mı?

Verilerin son kullanıcıları Ajanlar ise ve hatta veri depolama geliştirme Ajanlar tarafından yapılırsa - ve verileri kullanan nihai karar vericiler "insanlar" yerine Ajanlar ise - orijinal DSS (Başvuru Destek Sistemi) veri depolama mimarisi hala mantıklı mı?


Yazılım mühendisliği öğrenen herkes, bir sistem tasarlarken çizim yaptığınız ilk diyagramı “Kullanım Şekilleri” diyagramıdır – sistemin kullanıcılarını, sınırlarını ve davranış senaryolarını tanımlar.


When the user of a data warehouse shifts from human to Agent, the DSS architecture envisioned by Bill Inmon no longer holds water. At least in my view, it doesn’t.


When the user changes, the software must change too.

Agentlerin yükselişi sadece büyük modeller için bir zafer değil, kullanıcı deneyimini nasıl algıladığımızın tam bir bozulmasıdır:

  • Traditional data systems operated in a “pull model”: the user knew the problem, queried the data, and extracted conclusions.

  • Future Agents operate in a “push model”: the system proactively senses changes, understands intent, and generates decision suggestions.


Geleneksel haritalardan GPS navigasyonuna geçmek gibidir:


Artık “yolun nerede olduğunu” bilmenize gerek yok – sadece sistemin nereye gitmek istediğini söylüyorsunuz ve sizi oraya götürüyor.

Artık “yolun nerede olduğunu” bilmenize gerek yok – sadece sistemin nereye gitmek istediğini söylüyorsunuz ve sizi oraya götürüyor.


Traditional data warehouses focus on structure and querying, whereas Agentic architectures prioritize semantics and responsiveness.


Basitçe söylemek gerekirse: İş dilini anlayan herkes veri dünyasını yönetecek.


Agentic Data Stack and Contextual Data Unit (CDU): Yerleşik Semantik ile Veriler

Ajanlar verileri otomatik olarak geliştirmek ve kullanmak için, günümüzde veri depolama tasarımı uygun değildir – büyük modeller veya Ajanlar için hiçbir zaman tasarlanmamıştır. İçeride saklanan “kötü” veriler – sadece sayısal değerler ve sütun adları. Bu değerler veya alanların aslında ne anlama geldiği, ayrı bir “bilgi varlığı” yönetim sisteminde saklanır. Her değer veya alanı anlamak tam bir “bilgi yönetimi” projesi gerektirir. Bu tasarımı, semantik düşünceye dayanan büyük modeller ve Ajanlar için dostu değildir.data and semantics togetherBen buna şöyle sesleniyorum:


Kontekstüel Veri Birimi (CDU): Verileri + semantik açıklama birleştiren iki elementli birim - her veri girdisi onunla anlamını taşır.

Kontekstüel Veri Birimi (CDU): Verileri + semantik açıklama birleştiren iki elementli birim - her veri girdisi onunla anlamını taşır.


Geleneksel olarak veri kataloğunda saklanan bilgileri doğrudan her veri girişine birleştirir, Agentler veya büyük modellere erişirken arama süresini ve hata oranını azaltır.


Bu arada, CDU'daki semantik iş sistemlerinden elde edilir - kaynakta veri akış ajanları tarafından destille edilir ve özetlenirler. CDU, tüketim sırasında oluşur, bir ajan veri gölüne aktarılır - daha sonra oluşturulmaz. Diğer bir deyişle, veri yönetimi ve lineage, ajanlara dayalı gelişim sürecine dahildir, veri depolama alanına girdikten sonra geriye dönük olarak uygulanmaz, çatışmalar ve belirsizliklerden kaçınır.


Bu noktada, düşüncelerimi anlamalısınız: Agentic AI çağında, ETL'den depolama ve veri uygulamalarına kadar her şey yeniden şekillenecek çünküconsumers are now Agents and models.Bu akıllı ajanlara hizmet vermek için, geleneksel veri platformları, “Ajan” olarak adlandırılabilir, semantik olarak bilinçli, olay odaklı bir mimariye dönüşmelidir.Agentic Data Stack.


Agent Data Stack: Agent çağında, “data + semantics” elde etmek için araçlardan, CDU formatlı verileri hesaplayan ve depolayan platformlara ve nihayet bu verileri Agents’e teslim eden etkileşim tabakasına kadar uzanan yeni bir veri teknolojisi stack.

Agent Data Stack: Agent çağında, “data + semantics” elde etmek için araçlardan, CDU formatlı verileri hesaplayan ve depolayan platformlara ve nihayet bu verileri Agents’e teslim eden etkileşim tabakasına kadar uzanan yeni bir veri teknolojisi stack.


İşte Agentic Data Stack'in içerebileceği cesur tahminim:



  • Semantic Orchestrator (Interaction Layer): This is no longer a BI/dashboard interface, but the “brain” and “command center” of the Agentic architecture. With natural language understanding and semantic reasoning capabilities, it bridges other agents with underlying data assets, enabling intelligent, multi-round interactions and service generation.

  • Data Mesh (Storage Layer): No longer a traditional Data Warehouse or Data Lake—it’s a service-oriented, computation-friendly fusion layer that stores data with semantics. It can supply data for complex computations by LLMs while also supporting real-time processing.

  • Data Flow Agent (Processing Layer): Not just “moving data,” but understanding and orchestrating data. Not scheduled periodically, but event-driven and intent-driven. Capable of detecting data changes, analyzing schemas, understanding business logic, and responding accordingly.


Yeni veriler Data Flow Agents tarafından keşfedilir, Data Mesh'de önceden depolanır ve Semantic Orchestrator tarafından işle ilgili tanımlamalar ile yorumlanır - nihayetinde iş talebinden veri çıkışına kadar "hızlı hesaplama" sağlar.


LLMs provide the brainpower. Agents are the hands and feet. Agentic Data Stack gives them the data accessibility needed in the era of large models.


Agentic Data Stack’in yükselişi ile, bir sonraki nesil “data depoları” inşa etme maliyeti dramatik bir şekilde düşüyor. Doğal dil sorgulama yeteneğine sahip olmak ve ilgili verilere erişmek sadece büyük işletmelerin ayrıcalığı olmayacak – küçük işletmeler ve hatta bireyler için erişilebilir hale gelecek. Google Drive dosyalarınızı, ev NAS’unuzu, dizüstü bilgisayarınızdaki PDF’leri ve uygulama siparişlerinizi telefonunuzdan bir veri akış ajanı aracılığıyla kişisel veri depolama alanınıza aktarabilirsiniz. Daha sonra “Geçen ay Disney’i ne kadar harcadım?” gibi bir soru sorabilirsiniz – daha önce çok platformdan ihraç etmeyi ve Excel sayfalarını manuel olarak oluşturmayı gerektiren bir şey.


Son zamanlarda, WhaleOps'in liderliği altında, Apache SeaTunnel topluluğu Apache SeaTunnel MCP Server'ı piyasaya sürdü - zaten bir veri akış ajanı olmaya doğru ilerliyor. tabii ki, hala aşılması gereken teknik engeller var - örneğin olgun olmayan A2A protokolleri, Data Mesh tabakasında kanıtlanmamış semantik + veri depolama modellerini ve geçmiş yönetim çıkışlarını Semantic Orchestrator için girişlere dönüştürmek.


Ancak LLM ve Agent çağının gelmesi, bir zamanlar SQL'in icatı gibi veri analiz endüstrisini yeniden şekillendirecektir.


Bir hikaye: Çocukken, iki popüler bisiklet markası Forever ve Phoenix idi. Hız üzerinde “accelerated axles” aracılığıyla rekabet ettiler. Ama bisiklet pazarını bozan şey daha iyi bir bisiklet değildi - paylaşım bisikletlerini başlattı, tüm endüstriyi döndüren bir gıda dağıtım şirketiydi. Ajanlar yükseldiğinde, bir zamanlar inandığımız bazı temel ürün yolları anlam kaybedebilir.


Sonuç: Şu anda yaşamak, geleceği görmek

Bu vizyonu AICon, AWS Topluluk Günü ve diğer teknoloji zirvelerinde paylaştığımda, seyirci her zaman iki kampta bölündü. “İnançlılar”, Agentic Data Stack’in 5–10 yıl uzakta olduğunu söylemek için çok muhafazakar olduğumu düşünüyorlar – AI’nin 5 yıl içinde tam olarak oluştuğunu göreceğimiz kadar hızlı bir şekilde geliştiğine inanıyorlar. “Skeptikler” AI ajanlarının veri depolama mimarisi üzerindeki etkisini büyük ölçüde aşırı derecelendirdiğini düşünüyorlar. Bugünün veri depolama tasarımlarının en yüksek ROI formatı olduğunu ve daha az verimli bir şeyin ticari olarak ölçeklenmeyeceğini düşünüyorlar – sadece gökyüzünde bir pasta.


Ben bir “Centrist”yım: Benbelieve the emergence of the Agentic Data Stack is inevitable.Bu AI dalgası, önceki dalgalardan temel olarak farklı bir şekilde yazılım mimarisini etkileyecektir.We must look at the total cost and outcome of enterprise data warehouse construction and operations, not just storage or compute ROI alone.


Şu anda, trendleri görüyoruz: gerçek zamanlı veri depolarının yükselişi, veri göllerinin genişlemesi ve modern depolama tasarımındaki katmanların azaltılması. (Hatta Teradata eğitilmiş veri modelleme mimarlarımızın geri çekilme döneminde, piyasada hızla gelişen iş mantığına uyum sağlayabilecek profesyoneller eksikliği olduğunu düşünüyorum).


Yani, geçiş bir gecede gerçekleşmeyecek. ClickHouse’un Çin’in de facto gerçek zamanlı OLAP motoruna dönüşmesine yardımcı olmak için 2016’dan 2020’ye gittim – ve bu zaten mevcut bir ürünle oldu. Agentic Data Stack, öte yandan, sadece birkaç erken aşamalı bileşene ve başlangıç şirketine sahiptir. Bunların çoğu henüz mevcut değil – kesinlikle 5 yılın altında pazara hakim olmayacak.


Bu, veri depolarının yutulduğunu değil, yapısı ve soru merkezli modelinin semantik ve yanıt merkezli bir mimariyle değiştirildiğini gösteriyor.

Bu, veri depolarının yutulduğunu değil, yapısı ve soru merkezli modelinin semantik ve yanıt merkezli bir mimariyle değiştirildiğini gösteriyor.


The gates to the Agentic Data Stack are opening.

Are you ready?

Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks