KI, die dort läuft, wo deine Daten liegen.
Volle Kontrolle über deine Daten. Generative KI, die in deiner eigenen Infrastruktur oder Sovereign Cloud operiert — produktionsreif und prüfungssicher.

Deine Daten. Deine Infrastruktur. Keine Ausnahmen.
Die meisten KI-Anbieter haben eine Standardantwort: Daten in die Cloud. Für Unternehmen in Europa und Asien ist das zunehmend keine Option.
DSGVO, FINMA, BaFin — die regulatorischen Anforderungen an den Datensitz sind real. Dazu kommt die unternehmerische Realität: Kundendaten, Preislogik, Lieferantenbeziehungen sind das Kernkapital deines Unternehmens. KI darauf zu trainieren ist wertvoll. Den Zugang dazu an Dritte abzugeben ist es nicht.
Wir entwickeln generative KI-Systeme, die dort laufen, wo deine Daten liegen. Auf deinen eigenen Servern. Auf souveräner EU-Cloud-Infrastruktur – StackIT (die Cloud der Schwarz Gruppe, entwickelt für DSGVO-konforme Unternehmens-Workloads), Hetzner, OVHcloud. In deiner bestehenden AWS- oder Azure-Umgebung, innerhalb von Grenzen, die Sie definieren und auditieren können. Die Modellebene läuft auf Open-Weight LLMs – Llama, Mistral, Phi –, die produktionsreif, schnell sind und keinen einzigen Byte deiner Daten erfordern, um deine Sicherheitsgrenzen zu verlassen.
Dies ist keine Einschränkung, die wir umgehen. Es ist die Architektur, die wir von Anfang an konzipieren. Dieselbe Architektur funktioniert gleichermaßen gut für Unternehmen in der Public Cloud ohne Residenzanforderungen – der „Sovereignty-First“-Ansatz bedeutet, dass das System innerhalb der von dir definierten Grenzen läuft, egal ob diese Grenzen regulatorischer Natur oder einfach nur umsichtig sind.
Was wir entwickeln
DokumentenintelligenzVerträge, Rechnungen, Lieferanten-E-Mails, gescannte Formulare, technische Spezifikationen – unstrukturierte Dokumente werden in strukturierte, verwertbare Daten umgewandelt. Wir entwickeln Klassifizierungs-, Extraktions- und Validierungspipelines mit definierten Schemata und Ausnahme-Routings für die manuelle Überprüfung. Die Pipeline läuft innerhalb deiner Infrastruktur. Die Ergebnisse werden direkt in dein ERP, CMS oder führendes System integriert. Für einen DACH-Versicherungsanbieter haben wir eine Schadensdokumenten-Pipeline entwickelt, die Tausende von Dokumenten pro Monat mit automatischer Klassifizierung, Feldextraktion und Ausnahme-Routing verarbeitet – und das vollständig innerhalb der bestehenden Azure-Umgebung des Kunden.
Natürliche Sprache in DatenGeschäftsanwender stellen Fragen an ihre eigenen Datenbanken in natürlicher Sprache – ohne SQL-Kenntnisse, ohne einen Datenanalysten als Vermittler. Wir entwickeln die Agentenarchitektur, die Abfragen in natürlicher Sprache mit strukturierten Datenquellen verbindet, wobei die Genauigkeit die primäre technische Anforderung ist. Für procelo tosca haben wir innerhalb von 8 Wochen einen funktionierenden Prototyp geliefert, der eine SQL-Abfragegenauigkeit von über 80 % über komplexe ERP-Schemata hinweg erreichte und semantische Unterscheidungen – Bestellungen versus Käufe, Retouren versus Gutschriften – handhabte, bei denen naive LLM-Ansätze durchweg scheitern.
Interne WissenserschließungLLMs, die auf deiner internen Dokumentation basieren: Richtlinien, Produktkataloge, Support-Historien, technische Handbücher. Wir konzipieren die Retrieval-Architektur – Chunking-Strategie, Embedding-Modell, Vektorspeicher, Kontextzusammenstellung –, sodass Antworten auf Quelldokumente zurückgeführt werden können und das Modell nicht über den Inhalt deiner Wissensbasis hinaus halluzinieren kann. Für einen europäischen Logistikbetreiber haben wir ein Retrieval-System für über 12.000 interne Dokumente entwickelt, das die Eskalationszeit im Support reduzierte und vollständig On-Premise ohne externe API-Aufrufe lief.
Lieferanten- und Backoffice-AutomatisierungRechnungsverarbeitung, E-Mail-Klassifizierung, Abgleich von Bestellungen, Workflows für die Lieferantenkommunikation. Dieselbe Pipeline, die manuell 100 Rechnungen pro Tag verarbeitet, bewältigt mit einem Agenten 10.000 – mit höherer Konsistenz und vollständiger Audit-Trail. ein führender deutscher Designer-Möbelhändler reduzierte die manuelle Lieferantenkommunikation in einem 8-wöchigen Projekt mit diesem Ansatz um 70 %.
KI-Governance und Output-MonitoringProduktionsreife LLM-Systeme erfordern dieselbe Instrumentierung wie jede andere Unternehmenssoftware. Wir integrieren Latenzverfolgung, Metriken zur Ausgabequalität, Bewertung der Abrufgenauigkeit und Regressionstests in jede Implementierung. Ändern sich das zugrunde liegende Modell oder die Daten, wissen Sie es, bevor deine Nutzer es bemerken. In regulierten Umgebungen dokumentieren wir die vollständige Audit-Kette von der Nutzeranfrage über die Modellausgabe bis zum Quelldokument. Dies ist kein separates Add-on – es ist fester Bestandteil jedes von uns implementierten Systems.
Nicht jedes Automatisierungsproblem erfordert KI.Viele manuelle Prozesse – Genehmigungsworkflows, Dokumentenverteilung, Dateneingabe aus strukturierten Formularen, Statusbenachrichtigungen – lassen sich effektiver mit Workflow-Automatisierung oder Integrationstools lösen als mit einem LLM. Identifiziert die Analyse Prozesse, für die deterministische Automatisierung die passende Lösung ist, empfehlen wir diesen Weg. Wir entwickeln beides: KI-gestützte Systeme, wo Intelligenz gefragt ist, und strukturierte Automatisierung, wo Zuverlässigkeit und Geschwindigkeit entscheidend sind. Die Analyse bestimmt, welcher Ansatz für den jeweiligen Anwendungsfall am besten geeignet ist.
Die Datenfrage steht an erster Stelle.
Bevor wir mit der Modellentwicklung beginnen, prüfen wir, welche Daten verfügbar sind, wie sauber sie sind und wo sie liegen. Diese Entscheidung bestimmt, ob ein KI-System produktiv eingesetzt wird oder nur in einer Demo läuft.
Ein Agent, der auf sauberen, strukturierten und zugänglichen Daten basiert, liefert vorhersagbare Ergebnisse. Ein Agent, der auf fragmentierten Systemen mit ungelösten Identitätskonflikten und inkonsistenten Schemata aufbaut, wird halluzinieren, Fehler produzieren und abgeschaltet werden. Wir haben beide Ergebnisse erlebt.
Was die Analyse umfasst.Wir erfassen deine Datenquellen, bewerten Qualität und Vollständigkeit, identifizieren Lücken, die die Modellgenauigkeit beeinträchtigen würden, und prüfen die Integrationspunkte zwischen deinen bestehenden Systemen und der KI-Schicht. Das Ergebnis ist ein Datenbereitschaftsbericht, der dir aufzeigt, was sofort umsetzbar ist, was zuerst Data Engineering erfordert und welche realistischen Genauigkeits- und Leistungserwartungen für jeden Anwendungsfall bestehen.
Wenn die Daten nicht bereit sind.Wir helfen dir, dies zu beheben. Data Engineering – Schemanormalisierung, Deduplizierung, Identitätsauflösung, Pipeline-Konstruktion – ist oft die Investition mit dem größten Hebel, bevor jegliche KI-Arbeit beginnt. Wir definieren dies als eigenständige Phase mit klaren Lieferobjekten, anstatt es in das KI-Projekt zu integrieren, wo es unsichtbar und unkontrollierbar würde.
Wann sich der Bau einer kundenspezifischen KI lohnt – und wann nicht.
Nicht jeder KI-Anwendungsfall erfordert ein kundenspezifisches System. Standardprodukte – Microsoft Copilot, Google Gemini for Workspace, branchenspezifische SaaS-KI-Tools – lösen viele gängige Probleme ausreichend gut. Die Kosten für eine kundenspezifische Entwicklung sind nur dann gerechtfertigt, wenn einer oder mehrere der folgenden Punkte zutreffen:
deine Daten dürfen aus regulatorischen oder wettbewerbsrelevanten Gründen deine Infrastruktur nicht verlassen. Kommerzielle KI-Produkte verarbeiten Daten auf ihren eigenen Servern. Ist dies nicht akzeptabel, ist eine kundenspezifische Lösung der richtige Weg.
Der Anwendungsfall erfordert eine tiefe Integration mit deinen proprietären Daten – ERP-Schemata, interne Wissensdatenbanken, Lieferantennetzwerke –, wobei ein allgemeines Tool die vom Unternehmen geforderte Genauigkeitsschwelle nicht erreichen kann.
Sie benötigen Kontrolle über das Modell, die Prompts, die Retrieval-Logik und das Monitoring. Kommerzielle Produkte sind systembedingt intransparent. In regulierten Umgebungen stellt Intransparenz ein Compliance-Risiko dar.
Treffen diese Punkte nicht zu, ist ein kommerzielles Produkt wahrscheinlich die richtige Wahl, und wir werden dir dies mitteilen. Die Analysephase von Wir sind darauf ausgelegt, diese Frage zu beantworten, bevor eine Entwicklungszusage gemacht wird.
Erfolg im Produktivbetrieb
procelo tosca – über 80 % SQL-Genauigkeit in 8 Wochen.procelo tosca benötigte eine Lösung, die es Geschäftsanwendern ermöglichte, komplexe ERP-Daten in natürlicher Sprache abzufragen, ohne auf Datenanalysten angewiesen zu sein. Wir lieferne innerhalb von 8 Wochen einen funktionierenden Prototyp, der eine SQL-Abfragegenauigkeit von über 80 % über Schemata hinweg erreichte. Dies umfasste semantische Komplexitäten, bei denen generische LLM-Ansätze regelmäßig scheitern – wie die Unterscheidung von Bestellungen und Käufen, Retouren und Gutschriften sowie die Handhabung von Multi-Tabellen-Joins, die Domänenverständnis erfordern. Das System läuft innerhalb der Infrastruktur des Kunden und kommt ohne externe API-Abhängigkeiten aus.
ein führender deutscher Designer-Möbelhändler – 70 % weniger manuelle Lieferantenprozesse.ein führender deutscher Designer-Möbelhändler, ein führender deutscher Händler für Designermöbel, bearbeitete Lieferantenkommunikation, Bestellungen und Abstimmungsaufgaben manuell in den Bereichen Einkauf, Lager und Finanzen. Wir entwickelne in 8 Wochen eine automatisierte Pipeline für das Lieferantenmanagement. Der manuelle Aufwand sank um 70 %. Die teamübergreifende Abstimmung verbesserte sich, da das System konsistente Daten über alle drei Funktionen hinweg sicherstellte. Die Pipeline läuft als produktives System, nicht als Pilotprojekt.
DACH-Versicherungsanbieter – Skalierbare Bearbeitung von Schadensdokumenten.Ein regulierter Versicherungsanbieter musste die Klassifizierung und Extraktion von Schadensdokumenten automatisieren, unter vollständiger Einhaltung der Datenresidenz in ihrer bestehenden Azure-Umgebung. Wir entwickelne eine Pipeline, die Tausende von Dokumenten pro Monat verarbeitet – mit automatischer Klassifizierung, Feldextraktion und Human-in-the-Loop-Ausnahmebehandlung. Es verlassen keine Daten die Infrastruktur des Kunden. Der Audit-Trail erfüllt die regulatorischen Dokumentationsanforderungen.
Europäischer Logistikbetreiber – Interne Wissensabfrage über 12.000+ Dokumente.Ein Logistikunternehmen mit Niederlassungen in mehreren europäischen Ländern musste interne Richtlinien, Verfahren und technische Dokumentationen über natürliche Sprache durchsuchbar und beantwortbar machen. Wir entwickelne ein Retrieval-Augmented-System, das auf über 12.000 Dokumenten basiert und vollständig On-Premise läuft. Das System verfolgt jede Antwort bis zum Quelldokument zurück und kann keine Antworten generieren, die über die Wissensbasis hinausgehen. Die Eskalationszeit für den Support wurde messbar reduziert.
Viele unserer Projekte sind vertraulich. Referenzen sind unter NDA verfügbar.
Das Zusammenspiel von KI mit anderen Gradion-Services
KI-Projekte existieren selten isoliert. Die Datenbereitschaftsanalyse kann aufzeigen, dass die zugrunde liegenden Systeme modernisiert werden müssen, bevor KI einen Mehrwert liefern kann – dies ist ein Projekt zur Legacy-Modernisierung oder zur Erstellung einer Transformations-Roadmap. Ein Fractional CTO kann KI als strategische Priorität identifizieren und ein Team zur Umsetzung benötigen. Ein Programm zur Reduzierung technischer Schulden kann Prozesse aufdecken, bei denen Automatisierung die Schulden an ihrer Quelle eliminiert, anstatt sie nur zu umgehen.
Die KI-Praxis von Wir sind Teil einer Lieferorganisation, die Architektur, Engineering und Führung abdeckt. Wenn ein KI-Projekt Arbeiten außerhalb der KI-Ebene erfordert, erfolgt die Reaktion sofort und koordiniert – nicht durch eine Weiterleitung an einen separaten Anbieter.
Projektstruktur
Datenbereitschaftsanalyse2–3 Wochen. Wir bewerten deine Datenlandschaft, prüfen Qualität und Zugänglichkeit, identifizieren die wertvollsten KI-Anwendungsfälle für deine spezifischen Daten und liefern einen Bereitschaftsbericht mit einer klaren Build-or-Buy-Empfehlung. Wenn die Empfehlung lautet, ein kommerzielles Produkt anstelle einer Eigenentwicklung zu nutzen, werden wir dir dies mitteilen. Als Festpreisprojekt kalkuliert.
Proof of Concept6–10 Wochen. Ein funktionierender Prototyp, der in deiner Infrastruktur bereitgestellt wird – kein Foliensatz, keine Notebook-Demo. Der PoC zielt auf einen einzelnen, definierten Anwendungsfall mit messbaren Genauigkeitsschwellen ab, die vor Beginn der Entwicklung vereinbart werden. Das Ergebnis ist ein System, das Sie unter realen Bedingungen bewerten können, sowie eine klare Kosten- und Zeitplan-Schätzung für die Produktivsetzung. Als Festpreisprojekt kalkuliert.
Produktivsetzung3–6 Monate. Vollständige Bereitstellung des KI-Systems in deiner Produktionsumgebung mit Governance, Monitoring, Integration in bestehende Systeme und der operativen Instrumentierung, die für eine dauerhafte Zuverlässigkeit erforderlich ist. Beinhaltet eine definierte Übergabephase, in der dein Team die Verantwortung für das System übernimmt. Kalkuliert basierend auf Systemkomplexität, Integrationsanforderungen und Datenvolumen.
Kontinuierliche Überwachung und OptimierungFür Unternehmen, die Gradion mit der Wartung von produktiven KI-Systemen nach der Bereitstellung beauftragen möchten. Dies umfasst die Überwachung der Modellleistung, die Verfolgung der Abrufgenauigkeit, die Erkennung von Regressionen und die periodische Optimierung, wenn sich deine Daten- und Nutzungsmuster entwickeln. Ein fester Ingenieur gewährleistet die Kontinuität mit deinem System. Als monatlicher Retainer kalkuliert.
Häufige Fragen
Was ist, wenn unsere Daten nicht ausreichend bereinigt oder strukturiert für KI sind?
Dies ist das häufigste Ergebnis unserer Analysen. Es ist kein Grund aufzuhören, sondern ein Grund, mit Data Engineering zu beginnen. Wir definieren die Datenaufbereitung als eigenständige Phase mit klaren Lieferobjekten: Schema-Normalisierung, Deduplizierung, Identitätsauflösung und Pipeline-Aufbau. Die KI-Entwicklung startet erst, wenn die Daten die Anforderungen erfüllen.
Wie werden Modell-Updates gehandhabt, wenn ein Open-Weight LLM eine neue Version bereitstellt?
Modell-Updates werden über unsere Governance-Schicht gesteuert. Wir führen Regressions-Testreihen für deine spezifischen Anwendungsfälle durch, bevor eine Modelländerung in die Produktion überführt wird. Verbessert eine neue Modellversion die Leistung, wird sie übernommen. Führt sie zu Regressionen, behalten wir die aktuelle Version bei. Sie sind niemals einer Modelländerung ausgesetzt, die Sie nicht validiert haben.
Welche Genauigkeitsraten können wir erwarten?
Dies hängt vom Anwendungsfall und den Daten ab. Bei strukturierten Extraktionsaufgaben (Rechnungen, Schadensdokumente) sind Genauigkeitsraten von über 95 % bei gut definierten Schemata typisch. Für die Umwandlung von natürlicher Sprache in Daten (SQL-Generierung) haben wir eine Genauigkeit von über 80 % bei komplexen Schemata nachgewiesen – wobei die spezifische Rate von der Abfragekomplexität und dem Schema-Design abhängt. Wir legen Genauigkeitsschwellenwerte fest, bevor die Entwicklung beginnt, und messen diese durchgängig.
Können Sie mit unserem bestehenden Data-Engineering-Team zusammenarbeiten?
Ja. In den meisten Projekten verantwortet das Data-Team des Kunden die Datenschicht, und Wir bauen darauf die KI-Schicht auf. Wir definieren die Schnittstelle zwischen beiden – welche Daten das KI-System benötigt, in welchem Format und mit welcher Aktualität – und arbeiten bei der Integration kollaborativ zusammen. Wo kein Data-Engineering-Team existiert, kann Gradion diese Fähigkeit als Teil des Projekts bereitstellen.
Wie lange dauert ein typischer Proof of Concept?
Sechs bis zehn Wochen vom Projektstart bis zu einem funktionierenden Prototypen in deiner Infrastruktur. Dies setzt voraus, dass die Datenbereitschaftsanalyse abgeschlossen ist und die Daten zugänglich sind. Ist zuvor umfangreiche Data-Engineering-Arbeit erforderlich, verlängert sich der Zeitplan – typischerweise um 2–4 Wochen, je nach Umfang.
Ist dies ausschließlich für Unternehmen mit Anforderungen an die Datenresidenz gedacht?
Nein. Die Sovereignty-First-Architektur ist unser Standardansatz, da sie jedem Kunden maximale Kontrolle über seine Daten und Infrastruktur bietet. Unternehmen ohne regulatorische Auflagen profitieren vom gleichen Vorgehen: volle Transparenz über die Systemfunktionen, keine Abhängigkeit von der Verfügbarkeit externer APIs und die Möglichkeit, jede Komponente zu auditieren. Die Architektur funktioniert in der Public Cloud, Private Cloud oder On-Premise – die Grenzen definieren Sie selbst.
Haben Sie Daten, die mehr Wert für dein Unternehmen schaffen…
Sagen Sie uns, welche Daten Sie haben und welche Entscheidung oder welchen Prozess Sie verbessern möchten. Wir zeigen dir, was umsetzbar ist, welche Kosten entstehen und wo die Lösung betrieben werden muss.
Über 80 % SQL-Genauigkeit in 8 Wochen
Für procelo tosca lieferte Gradion in 8 Wochen einen funktionierenden generativen KI-Prototypen, der eine SQL-Abfragegenauigkeit von über 80 % über komplexe ERP-Schemata hinweg erreichte.