Zum Hauptinhalt springen
STACKIT: Souveräner RAG-Chatbot für die Schwarz Gruppe

STACKIT: Souveräner RAG-Chatbot für die Schwarz Gruppe

innFactory entwickelt für STACKIT einen vollständig souveränen KI-Chatbot auf Basis von LLama 3 und RAG - gehostet ausschließlich in deutschen Rechenzentren der Schwarz Gruppe.

STACKIT Cloud KI / LLM RAG LLama 3 Kubernetes Digitale Souveränität
100% Deutsche Rechenzentren
LLama 3 Open Source LLM
RAG Retrieval Augmented Generation

Über STACKIT

STACKIT ist die Cloud-Plattform der Schwarz Gruppe (Lidl, Kaufland) und bietet als deutscher Cloud-Provider eine vollständig souveräne Alternative zu US-amerikanischen Hyperscalern. Mit Rechenzentren ausschließlich in Deutschland garantiert STACKIT maximale Datensouveränität.

Die Herausforderung

Die Schwarz Gruppe setzt auf einen souveränen Google Workspace und benötigte einen internen KI-Assistenten für Mitarbeiterschulungen - mit einer klaren Anforderung: Keine Daten dürfen Deutschland verlassen.

Klassische KI-Lösungen wie ChatGPT oder Claude waren keine Option, da sie auf US-Servern laufen und sensible Unternehmensdaten verarbeiten würden.

Die Lösung: STACKI - Der souveräne Chatbot

innFactory entwickelte STACKI, einen RAG-basierten Chatbot, der vollständig auf STACKIT-Infrastruktur läuft und ausschließlich deutsche Rechenzentren nutzt.

Technische Architektur

LLM-Inferenz:

  • LLama 3 als Open Source Large Language Model
  • STACKIT Model Serving für GPU-beschleunigte Inferenz
  • Keine Abhängigkeit von externen KI-Providern

Retrieval Augmented Generation (RAG):

  • PGVector in PostgreSQL für Vektor-Embeddings
  • Indizierung interner Schulungsmaterialien
  • Kontextbezogene Antworten basierend auf Unternehmenswissen

Cloud-Native auf STACKIT:

  • STACKIT Kubernetes Engine (SKE) für Container-Orchestrierung
  • STACKIT Git für Versionsverwaltung und CI/CD
  • Vollständig deutsche Infrastruktur

Was ist RAG?

Retrieval Augmented Generation kombiniert die Stärken von Large Language Models mit unternehmensspezifischem Wissen:

  1. Retrieval: Relevante Dokumente werden aus der Wissensbasis abgerufen
  2. Augmentation: Diese Dokumente werden als Kontext an das LLM übergeben
  3. Generation: Das LLM generiert eine Antwort basierend auf dem bereitgestellten Kontext

Das Ergebnis: Präzise Antworten mit Bezug auf interne Dokumente - ohne dass das LLM auf diese Daten trainiert werden muss.

Unsere Leistungen

  • Architektur-Design für souveräne KI-Anwendungen
  • RAG-Pipeline Entwicklung und Optimierung
  • LLM-Integration mit STACKIT Model Serving
  • Vektor-Datenbank Setup mit PGVector
  • Kubernetes Deployment auf STACKIT SKE
  • DevOps-Pipeline mit STACKIT Git

Das Ergebnis

Mit STACKI hat die Schwarz Gruppe einen KI-Assistenten, der:

  • 100% souverän in deutschen Rechenzentren läuft
  • Interne Dokumente intelligent durchsucht und zusammenfasst
  • Mitarbeiterschulungen zum souveränen Google Workspace unterstützt
  • Keine Daten an externe Anbieter überträgt
  • DSGVO-konform und AI-Act-ready ist

Warum STACKIT?

AspektUS-HyperscalerSTACKIT
DatenspeicherungGlobal verteiltNur Deutschland
RechtsrahmenUS CLOUD ActDeutsches Recht
LLM-AnbieterOpenAI, AnthropicOpen Source (LLama)
DatenzugriffTheoretisch möglichAusgeschlossen
SouveränitätEingeschränktVollständig

CompanyGPT auf STACKIT

Basierend auf dieser Referenz ist unser CompanyGPT Produkt nun auch mit STACKIT Model Serving kompatibel. Unternehmen können damit einen vollständig souveränen KI-Assistenten betreiben - Made in Germany.


Verknüpfte Leistungen: STACKIT Cloud | KI & Machine Learning | Digitale Souveränität


Entwickelt in Partnerschaft mit STACKIT, dem souveränen Cloud-Provider der Schwarz Gruppe.

Technologie-Stack

STACKIT Cloud STACKIT Cloud
STACKIT Kubernetes Engine STACKIT Kubernetes Engine
LLama 3 LLama 3
PostgreSQL PostgreSQL
Python Python
Flask Flask
Docker Docker

Ihr Projekt. Unsere Expertise.

Bereit, Ihr Projekt mit modernsten Cloud- und Softwaretechnologien umzusetzen?

Projekt besprechen