Ihre Daten. Ihre Infrastruktur. Ohne Kompromisse.
Die meisten Anbieter generativer KI haben auf jede Frage dieselbe Antwort: Senden Sie Ihre Daten in unsere Cloud. Für eine wachsende Zahl von Unternehmen in Europa und Asien ist diese Antwort jedoch nicht akzeptabel.
Die DSGVO schafft eine reale Haftung, wenn personenbezogene Daten über US-basierte Infrastrukturen verarbeitet werden. FINMA, BaFin und branchenspezifische Vorschriften im Finanz- und Gesundheitswesen schreiben explizite Anforderungen an die Datenresidenz vor. Jenseits der Compliance gibt es eine Wettbewerbsrealität: Ihre Kundendaten, Ihre Preislogik, Ihre Lieferantenbeziehungen sind der Kern dessen, was Sie aufgebaut haben. Eine KI darauf zu trainieren, ist wertvoll. Sie an eine Drittanbieter-Cloud zu senden, die Sie nicht kontrollieren, ist ein Risiko, das die meisten Vorstände nicht genehmigen würden, wenn die Frage klar formuliert wäre.
Gradion entwickelt generative KI-Systeme, die dort laufen, wo Ihre Daten liegen. Auf Ihren eigenen Servern. Auf souveräner EU-Cloud-Infrastruktur – StackIT (die Cloud der Schwarz Gruppe, entwickelt für DSGVO-konforme Unternehmens-Workloads), Hetzner, OVHcloud. In Ihrer bestehenden AWS- oder Azure-Umgebung, innerhalb von Grenzen, die Sie definieren und auditieren können. Die Modellebene läuft auf Open-Weight LLMs – Llama, Mistral, Phi –, die produktionsreif, schnell sind und keinen einzigen Byte Ihrer Daten erfordern, um Ihre Sicherheitsgrenzen zu verlassen.
Dies ist keine Einschränkung, die wir umgehen. Es ist die Architektur, die wir von Anfang an konzipieren. Dieselbe Architektur funktioniert gleichermaßen gut für Unternehmen in der Public Cloud ohne Residenzanforderungen – der „Sovereignty-First“-Ansatz bedeutet, dass das System innerhalb der von Ihnen definierten Grenzen läuft, egal ob diese Grenzen regulatorischer Natur oder einfach nur umsichtig sind.
Was wir entwickeln
DokumentenintelligenzVerträge, Rechnungen, Lieferanten-E-Mails, gescannte Formulare, technische Spezifikationen – unstrukturierte Dokumente werden in strukturierte, verwertbare Daten umgewandelt. Wir entwickeln Klassifizierungs-, Extraktions- und Validierungspipelines mit definierten Schemata und Ausnahme-Routings für die manuelle Überprüfung. Die Pipeline läuft innerhalb Ihrer Infrastruktur. Die Ergebnisse werden direkt in Ihr ERP, CMS oder führendes System integriert. Für einen DACH-Versicherungsanbieter haben wir eine Schadensdokumenten-Pipeline entwickelt, die Tausende von Dokumenten pro Monat mit automatischer Klassifizierung, Feldextraktion und Ausnahme-Routing verarbeitet – und das vollständig innerhalb der bestehenden Azure-Umgebung des Kunden.
Natürliche Sprache in DatenGeschäftsanwender stellen Fragen an ihre eigenen Datenbanken in natürlicher Sprache – ohne SQL-Kenntnisse, ohne einen Datenanalysten als Vermittler. Wir entwickeln die Agentenarchitektur, die Abfragen in natürlicher Sprache mit strukturierten Datenquellen verbindet, wobei die Genauigkeit die primäre technische Anforderung ist. Für procelo tosca haben wir innerhalb von 8 Wochen einen funktionierenden Prototyp geliefert, der eine SQL-Abfragegenauigkeit von über 80 % über komplexe ERP-Schemata hinweg erreichte und semantische Unterscheidungen – Bestellungen versus Käufe, Retouren versus Gutschriften – handhabte, bei denen naive LLM-Ansätze durchweg scheitern.
Interne WissenserschließungLLMs, die auf Ihrer internen Dokumentation basieren: Richtlinien, Produktkataloge, Support-Historien, technische Handbücher. Wir konzipieren die Retrieval-Architektur – Chunking-Strategie, Embedding-Modell, Vektorspeicher, Kontextzusammenstellung –, sodass Antworten auf Quelldokumente zurückgeführt werden können und das Modell nicht über den Inhalt Ihrer Wissensbasis hinaus halluzinieren kann. Für einen europäischen Logistikbetreiber haben wir ein Retrieval-System für über 12.000 interne Dokumente entwickelt, das die Eskalationszeit im Support reduzierte und vollständig On-Premise ohne externe API-Aufrufe lief.
Lieferanten- und Backoffice-AutomatisierungRechnungsverarbeitung, E-Mail-Klassifizierung, Abgleich von Bestellungen, Workflows für die Lieferantenkommunikation. Dieselbe Pipeline, die manuell 100 Rechnungen pro Tag verarbeitet, bewältigt mit einem Agenten 10.000 – mit höherer Konsistenz und vollständiger Audit-Trail. ein führender deutscher Designer-Möbelhändler reduzierte die manuelle Lieferantenkommunikation in einem 8-wöchigen Projekt mit diesem Ansatz um 70 %.
KI-Governance und Output-MonitoringProduktionsreife LLM-Systeme erfordern dieselbe Instrumentierung wie jede andere Unternehmenssoftware. Wir integrieren Latenzverfolgung, Metriken zur Ausgabequalität, Bewertung der Abrufgenauigkeit und Regressionstests in jede Implementierung. Ändern sich das zugrunde liegende Modell oder die Daten, wissen Sie es, bevor Ihre Nutzer es bemerken. In regulierten Umgebungen dokumentieren wir die vollständige Audit-Kette von der Nutzeranfrage über die Modellausgabe bis zum Quelldokument. Dies ist kein separates Add-on – es ist fester Bestandteil jedes von uns implementierten Systems.
Nicht jedes Automatisierungsproblem erfordert KI.Viele manuelle Prozesse – Genehmigungsworkflows, Dokumentenverteilung, Dateneingabe aus strukturierten Formularen, Statusbenachrichtigungen – lassen sich effektiver mit Workflow-Automatisierung oder Integrationstools lösen als mit einem LLM. Identifiziert die Analyse Prozesse, für die deterministische Automatisierung die passende Lösung ist, empfehlen wir diesen Weg. Gradion entwickelt beides: KI-gestützte Systeme, wo Intelligenz gefragt ist, und strukturierte Automatisierung, wo Zuverlässigkeit und Geschwindigkeit entscheidend sind. Die Analyse bestimmt, welcher Ansatz für den jeweiligen Anwendungsfall am besten geeignet ist.
Die Datenfrage steht an erster Stelle.
Bevor wir mit der Modellentwicklung beginnen, prüfen wir, welche Daten verfügbar sind, wie sauber sie sind und wo sie liegen. Diese Entscheidung bestimmt, ob ein KI-System produktiv eingesetzt wird oder nur in einer Demo läuft.
Ein Agent, der auf sauberen, strukturierten und zugänglichen Daten basiert, liefert vorhersagbare Ergebnisse. Ein Agent, der auf fragmentierten Systemen mit ungelösten Identitätskonflikten und inkonsistenten Schemata aufbaut, wird halluzinieren, Fehler produzieren und abgeschaltet werden. Wir haben beide Ergebnisse erlebt.
Was die Analyse umfasst.Wir erfassen Ihre Datenquellen, bewerten Qualität und Vollständigkeit, identifizieren Lücken, die die Modellgenauigkeit beeinträchtigen würden, und prüfen die Integrationspunkte zwischen Ihren bestehenden Systemen und der KI-Schicht. Das Ergebnis ist ein Datenbereitschaftsbericht, der Ihnen aufzeigt, was sofort umsetzbar ist, was zuerst Data Engineering erfordert und welche realistischen Genauigkeits- und Leistungserwartungen für jeden Anwendungsfall bestehen.
Wenn die Daten nicht bereit sind.Wir helfen Ihnen, dies zu beheben. Data Engineering – Schemanormalisierung, Deduplizierung, Identitätsauflösung, Pipeline-Konstruktion – ist oft die Investition mit dem größten Hebel, bevor jegliche KI-Arbeit beginnt. Wir definieren dies als eigenständige Phase mit klaren Lieferobjekten, anstatt es in das KI-Projekt zu integrieren, wo es unsichtbar und unkontrollierbar würde.
Wann sich der Bau einer kundenspezifischen KI lohnt – und wann nicht.
Nicht jeder KI-Anwendungsfall erfordert ein kundenspezifisches System. Standardprodukte – Microsoft Copilot, Google Gemini for Workspace, branchenspezifische SaaS-KI-Tools – lösen viele gängige Probleme ausreichend gut. Die Kosten für eine kundenspezifische Entwicklung sind nur dann gerechtfertigt, wenn einer oder mehrere der folgenden Punkte zutreffen:
Ihre Daten dürfen aus regulatorischen oder wettbewerbsrelevanten Gründen Ihre Infrastruktur nicht verlassen. Kommerzielle KI-Produkte verarbeiten Daten auf ihren eigenen Servern. Ist dies nicht akzeptabel, ist eine kundenspezifische Lösung der richtige Weg.
Der Anwendungsfall erfordert eine tiefe Integration mit Ihren proprietären Daten – ERP-Schemata, interne Wissensdatenbanken, Lieferantennetzwerke –, wobei ein allgemeines Tool die vom Unternehmen geforderte Genauigkeitsschwelle nicht erreichen kann.
Sie benötigen Kontrolle über das Modell, die Prompts, die Retrieval-Logik und das Monitoring. Kommerzielle Produkte sind systembedingt intransparent. In regulierten Umgebungen stellt Intransparenz ein Compliance-Risiko dar.
Treffen diese Punkte nicht zu, ist ein kommerzielles Produkt wahrscheinlich die richtige Wahl, und wir werden Ihnen dies mitteilen. Die Analysephase von Gradion ist darauf ausgelegt, diese Frage zu beantworten, bevor eine Entwicklungszusage gemacht wird.
Erfolg im Produktivbetrieb
procelo tosca – über 80 % SQL-Genauigkeit in 8 Wochen.procelo tosca benötigte eine Lösung, die es Geschäftsanwendern ermöglichte, komplexe ERP-Daten in natürlicher Sprache abzufragen, ohne auf Datenanalysten angewiesen zu sein. Gradion lieferte innerhalb von 8 Wochen einen funktionierenden Prototyp, der eine SQL-Abfragegenauigkeit von über 80 % über Schemata hinweg erreichte. Dies umfasste semantische Komplexitäten, bei denen generische LLM-Ansätze regelmäßig scheitern – wie die Unterscheidung von Bestellungen und Käufen, Retouren und Gutschriften sowie die Handhabung von Multi-Tabellen-Joins, die Domänenverständnis erfordern. Das System läuft innerhalb der Infrastruktur des Kunden und kommt ohne externe API-Abhängigkeiten aus.
ein führender deutscher Designer-Möbelhändler – 70 % weniger manuelle Lieferantenprozesse.ein führender deutscher Designer-Möbelhändler, ein führender deutscher Händler für Designermöbel, bearbeitete Lieferantenkommunikation, Bestellungen und Abstimmungsaufgaben manuell in den Bereichen Einkauf, Lager und Finanzen. Gradion entwickelte in 8 Wochen eine automatisierte Pipeline für das Lieferantenmanagement. Der manuelle Aufwand sank um 70 %. Die teamübergreifende Abstimmung verbesserte sich, da das System konsistente Daten über alle drei Funktionen hinweg sicherstellte. Die Pipeline läuft als produktives System, nicht als Pilotprojekt.
DACH-Versicherungsanbieter – Skalierbare Bearbeitung von Schadensdokumenten.Ein regulierter Versicherungsanbieter musste die Klassifizierung und Extraktion von Schadensdokumenten automatisieren, unter vollständiger Einhaltung der Datenresidenz in ihrer bestehenden Azure-Umgebung. Gradion entwickelte eine Pipeline, die Tausende von Dokumenten pro Monat verarbeitet – mit automatischer Klassifizierung, Feldextraktion und Human-in-the-Loop-Ausnahmebehandlung. Es verlassen keine Daten die Infrastruktur des Kunden. Der Audit-Trail erfüllt die regulatorischen Dokumentationsanforderungen.
Europäischer Logistikbetreiber – Interne Wissensabfrage über 12.000+ Dokumente.Ein Logistikunternehmen mit Niederlassungen in mehreren europäischen Ländern musste interne Richtlinien, Verfahren und technische Dokumentationen über natürliche Sprache durchsuchbar und beantwortbar machen. Gradion entwickelte ein Retrieval-Augmented-System, das auf über 12.000 Dokumenten basiert und vollständig On-Premise läuft. Das System verfolgt jede Antwort bis zum Quelldokument zurück und kann keine Antworten generieren, die über die Wissensbasis hinausgehen. Die Eskalationszeit für den Support wurde messbar reduziert.
Viele unserer Projekte sind vertraulich. Referenzen sind unter NDA verfügbar.
Das Zusammenspiel von KI mit anderen Gradion-Services
KI-Projekte existieren selten isoliert. Die Datenbereitschaftsanalyse kann aufzeigen, dass die zugrunde liegenden Systeme modernisiert werden müssen, bevor KI einen Mehrwert liefern kann – dies ist ein Projekt zur Legacy-Modernisierung oder zur Erstellung einer Transformations-Roadmap. Ein Fractional CTO kann KI als strategische Priorität identifizieren und ein Team zur Umsetzung benötigen. Ein Programm zur Reduzierung technischer Schulden kann Prozesse aufdecken, bei denen Automatisierung die Schulden an ihrer Quelle eliminiert, anstatt sie nur zu umgehen.
Die KI-Praxis von Gradion ist Teil einer Lieferorganisation, die Architektur, Engineering und Führung abdeckt. Wenn ein KI-Projekt Arbeiten außerhalb der KI-Ebene erfordert, erfolgt die Reaktion sofort und koordiniert – nicht durch eine Weiterleitung an einen separaten Anbieter.
Projektstruktur
Datenbereitschaftsanalyse2–3 Wochen. Wir bewerten Ihre Datenlandschaft, prüfen Qualität und Zugänglichkeit, identifizieren die wertvollsten KI-Anwendungsfälle für Ihre spezifischen Daten und liefern einen Bereitschaftsbericht mit einer klaren Build-or-Buy-Empfehlung. Wenn die Empfehlung lautet, ein kommerzielles Produkt anstelle einer Eigenentwicklung zu nutzen, werden wir Ihnen dies mitteilen. Als Festpreisprojekt kalkuliert.
Proof of Concept6–10 Wochen. Ein funktionierender Prototyp, der in Ihrer Infrastruktur bereitgestellt wird – kein Foliensatz, keine Notebook-Demo. Der PoC zielt auf einen einzelnen, definierten Anwendungsfall mit messbaren Genauigkeitsschwellen ab, die vor Beginn der Entwicklung vereinbart werden. Das Ergebnis ist ein System, das Sie unter realen Bedingungen bewerten können, sowie eine klare Kosten- und Zeitplan-Schätzung für die Produktivsetzung. Als Festpreisprojekt kalkuliert.
Produktivsetzung3–6 Monate. Vollständige Bereitstellung des KI-Systems in Ihrer Produktionsumgebung mit Governance, Monitoring, Integration in bestehende Systeme und der operativen Instrumentierung, die für eine dauerhafte Zuverlässigkeit erforderlich ist. Beinhaltet eine definierte Übergabephase, in der Ihr Team die Verantwortung für das System übernimmt. Kalkuliert basierend auf Systemkomplexität, Integrationsanforderungen und Datenvolumen.
Kontinuierliche Überwachung und OptimierungFür Unternehmen, die Gradion mit der Wartung von produktiven KI-Systemen nach der Bereitstellung beauftragen möchten. Dies umfasst die Überwachung der Modellleistung, die Verfolgung der Abrufgenauigkeit, die Erkennung von Regressionen und die periodische Optimierung, wenn sich Ihre Daten- und Nutzungsmuster entwickeln. Ein fester Ingenieur gewährleistet die Kontinuität mit Ihrem System. Als monatlicher Retainer kalkuliert.
Häufige Fragen
Was ist, wenn unsere Daten nicht ausreichend bereinigt oder strukturiert für KI sind?
Dies ist das häufigste Ergebnis unserer Analysen. Es ist kein Grund aufzuhören, sondern ein Grund, mit Data Engineering zu beginnen. Wir definieren die Datenaufbereitung als eigenständige Phase mit klaren Lieferobjekten: Schema-Normalisierung, Deduplizierung, Identitätsauflösung und Pipeline-Aufbau. Die KI-Entwicklung startet erst, wenn die Daten die Anforderungen erfüllen.
Wie werden Modell-Updates gehandhabt, wenn ein Open-Weight LLM eine neue Version bereitstellt?
Modell-Updates werden über unsere Governance-Schicht gesteuert. Wir führen Regressions-Testreihen für Ihre spezifischen Anwendungsfälle durch, bevor eine Modelländerung in die Produktion überführt wird. Verbessert eine neue Modellversion die Leistung, wird sie übernommen. Führt sie zu Regressionen, behalten wir die aktuelle Version bei. Sie sind niemals einer Modelländerung ausgesetzt, die Sie nicht validiert haben.
Welche Genauigkeitsraten können wir erwarten?
Dies hängt vom Anwendungsfall und den Daten ab. Bei strukturierten Extraktionsaufgaben (Rechnungen, Schadensdokumente) sind Genauigkeitsraten von über 95 % bei gut definierten Schemata typisch. Für die Umwandlung von natürlicher Sprache in Daten (SQL-Generierung) haben wir eine Genauigkeit von über 80 % bei komplexen Schemata nachgewiesen – wobei die spezifische Rate von der Abfragekomplexität und dem Schema-Design abhängt. Wir legen Genauigkeitsschwellenwerte fest, bevor die Entwicklung beginnt, und messen diese durchgängig.
Können Sie mit unserem bestehenden Data-Engineering-Team zusammenarbeiten?
Ja. In den meisten Projekten verantwortet das Data-Team des Kunden die Datenschicht, und Gradion baut darauf die KI-Schicht auf. Wir definieren die Schnittstelle zwischen beiden – welche Daten das KI-System benötigt, in welchem Format und mit welcher Aktualität – und arbeiten bei der Integration kollaborativ zusammen. Wo kein Data-Engineering-Team existiert, kann Gradion diese Fähigkeit als Teil des Projekts bereitstellen.
Wie lange dauert ein typischer Proof of Concept?
Sechs bis zehn Wochen vom Projektstart bis zu einem funktionierenden Prototypen in Ihrer Infrastruktur. Dies setzt voraus, dass die Datenbereitschaftsanalyse abgeschlossen ist und die Daten zugänglich sind. Ist zuvor umfangreiche Data-Engineering-Arbeit erforderlich, verlängert sich der Zeitplan – typischerweise um 2–4 Wochen, je nach Umfang.
Ist dies ausschließlich für Unternehmen mit Anforderungen an die Datenresidenz gedacht?
Nein. Die Sovereignty-First-Architektur ist unser Standardansatz, da sie jedem Kunden maximale Kontrolle über seine Daten und Infrastruktur bietet. Unternehmen ohne regulatorische Auflagen profitieren vom gleichen Vorgehen: volle Transparenz über die Systemfunktionen, keine Abhängigkeit von der Verfügbarkeit externer APIs und die Möglichkeit, jede Komponente zu auditieren. Die Architektur funktioniert in der Public Cloud, Private Cloud oder On-Premise – die Grenzen definieren Sie selbst.
Haben Sie Daten, die mehr Wert für Ihr Unternehmen schaffen…
Sagen Sie uns, welche Daten Sie haben und welche Entscheidung oder welchen Prozess Sie verbessern möchten. Wir zeigen Ihnen, was umsetzbar ist, welche Kosten entstehen und wo die Lösung betrieben werden muss.
Über 80 % SQL-Genauigkeit in 8 Wochen
Für procelo tosca lieferte Gradion in 8 Wochen einen funktionierenden generativen KI-Prototypen, der eine SQL-Abfragegenauigkeit von über 80 % über komplexe ERP-Schemata hinweg erreichte.