RAG ve Conversational AI Sistemi

graph TD A[Kullanıcı] -->|Soru| B[Conversational AI] B -->|Sorgu| C[Retriever] B -->|Sorgu| D[API Katmanı] B -->|Yetki Kontrolü| I[Yetkilendirme Katmanı] I -->|Başarılı| D I -->|Başarısız| J[Hata Yanıtı] C -->|Statik Veri| E[Dökümanlar] D -->|Dinamik Veri| F[Veri Tabanları] D -->|Dinamik Veri| G[CRM Sistemi] D -->|Ek Veri| K[Bulut Depolama] E --> O[Context Oluşturma] F --> O G --> O K --> O O -->|Context + Prompt| H[Generator/LLM] H -->|Cevap| B B -->|Cevap| A B -->|İşlem Kaydı| L[Loglama Sistemi] classDef user fill:#ff9ed8,stroke:#333; classDef core fill:#a8c6fa,stroke:#333; classDef data fill:#b5f5af,stroke:#333; classDef auth fill:#ffb1b1,stroke:#333; classDef log fill:#e0e0e0,stroke:#333; classDef process fill:#ffda85,stroke:#333; class A user; class B,C,H core; class E,F,G,K data; class I,J auth; class L log; class O process;

Sistem Bileşenleri

Kullanıcı Etkileşimi
Kullanıcı ve Geri Bildirim Modülü

Kullanıcının sisteme sorular sorduğu ve yanıtlar aldığı birincil arayüzdür.

Çekirdek İşleme
Conversational AI ve Generator (LLM)

Conversational AI, tüm sistem akışını yöneten ana bileşendir. Kullanıcı sorusunu alır, veri kaynaklarına yönlendirir ve Generator (LLM) modülüne context ile birlikte talimatlar göndererek yanıt oluşturur.

Örnek: Kullanıcı "2023 satış raporunu özetle" sorusunda, sistem önce yetki kontrolü yapar, sonra ilgili dökümanları ve veritabanını sorgular, elde ettiği verileri "Bu bilgileri kullanarak 2023 satış raporunu 3 paragrafta özetle" talimatı ile LLM'e gönderir.
Veri Kaynakları
Retriever ve Dökümanlar

Retriever, şirket bilgileri, menüler, kullanım kılavuzları gibi dökümanlardan ilgili bilgileri çeker. API Katmanı ise veritabanları, CRM sistemleri ve bulut depolama gibi dinamik kaynaklardan güncel verileri sağlar.

Örnek: Kullanıcı ürün özellikleri sorduğunda, Retriever önce ürün kataloğu dökümanlarını, API katmanı da güncel stok ve fiyat bilgilerini getirir.
Güvenlik ve İzleme
Yetkilendirme ve Loglama

Yetkilendirme Katmanı, kullanıcıların yetkilerini kontrol ederek güvenliği sağlar. Loglama Sistemi ise tüm işlemleri kaydeder ve sistem performansının izlenmesine olanak tanır.

Context Oluşturma ve LLM Talimatlandırma

LLM'e (Dil Modeli) verilen talimatlar ve içerik aşağıdaki sırayla işlenir:

  1. Farklı kaynaklardan veriler toplanır (dökümanlar, veritabanları, API'ler)
  2. Toplanan veriler kullanıcı sorusuyla ilgili olacak şekilde filtrelenir
  3. Context oluşturma aşamasında veriler birleştirilir ve düzenlenir
  4. Sistem talimatları (tone, format, uzunluk vb.) belirlenir
  5. Context + Kullanıcı sorusu + Sistem talimatları LLM'e gönderilir
  6. LLM cevabı döndürür ve son kontroller yapılır
Örnek Veri Akışı:
1. Kullanıcı: "XYZ ürün serisinin fiyat politikası nedir?"
2. Sistem: Kullanıcı yetkisi kontrol edilir
3. Retriever: Fiyat politikası dökümanları bulunur
4. API: Güncel fiyat listesi alınır, CRM'den müşteri segmenti bilgisi alınır
5. Context: Fiyat dökümanları + güncel fiyatlar + müşteri segmenti bilgileri birleştirilir
6. Prompt: "Aşağıdaki XYZ ürün serisi bilgilerini kullanarak, fiyat politikasını kısa ve net biçimde açıkla.
           Müşteri [segment] kategorisinde ve özel indirimler mevcut."
7. LLM: Verilen context ve talimata göre yanıt üretir
8. Sistem: Yanıt kullanıcıya iletilir ve etkileşim loglanır
Sistem Akışı
  1. Kullanıcı sisteme bir soru veya istek gönderir.
  2. Conversational AI, isteği alır ve yetkilendirme kontrolü yapar.
  3. Yetkilendirme başarılıysa, ilgili veri kaynaklarından bilgi çekilir.
  4. Generator, toplanan verileri kullanarak anlamlı bir yanıt oluşturur.
  5. Yanıt kullanıcıya iletilir ve işlem loglanır.
  6. Kullanıcı yanıt hakkında geri bildirim verebilir.
  7. Olumsuz geri bildirimler, geliştirici ekibine yönlendirilir.