sc-memory-graph — Knowledge-Graph für Berater

KI-Exzellenz-Übersicht

Case aus eigener Praxis

sc-memory-graph: der Knowledge-Graph, der nichts vergisst.

512 Aktionen, 1.799 Edges, 9 funktionale Areas. Recall@5 von 94,79 % auf LongMemEval-S — vergleichbar mit publizierten SOTA-Systemen.

Das Problem

Wissen wird zur Beratungsgrundlage, wenn es abrufbar bleibt.

Notion, Confluence und Wiki-Sammlungen sind Friedhöfe.

Berater sammeln Wissen über Jahre in Tools, die niemand durchsucht. Das Ergebnis: dasselbe Problem wird mehrfach gelöst, Kontext geht verloren, Mandantenwechsel bedeuten Wissensneubau. Ein abrufbares Gedächtnis ist die Grundlage belastbarer Beratung.

Die Architektur

Fünf Schichten für ein konsistentes Gedächtnis.

  • Datenbasis
    Neo4j-Graph — 9 funktionale Areas, 1.799 Edges, bi-temporale Validity auf 8 Edge-Typen. Jeder Fakt hat einen Gültigkeitszeitraum und einen Erfassungszeitraum.
  • Recall
    Hybrid-Retrieval — BM25 für Schlüsselwort-Präzision kombiniert mit einem 768d-Vektorindex für semantische Nähe, ergänzt um Name-/ID-Boost für direkte Treffer.
  • Reranking
    Personalized PageRank — Kontextgewichtung nach Graph-Nähe zum Einstiegsknoten. Stärker verbundene Fakten werden höher priorisiert.
  • Konsistenz
    Edge-Invalidation-Resolver — Widersprüchliche Fakten werden automatisch erkannt und zeitlich geordnet.
  • Schnittstelle
    MCP-Server — sechs Tools (recall, record_fact, query_facts, find_conflicts, consolidate, audit). Direkt aus Claude Code ansteuerbar.
512 Actions — Trainingskorpus
1.799 Edges im Graphen
9 Funktionale Areas (Cluster)
768d Vektor-Dimensionen

Messbare Ergebnisse

Von 66,67 % auf 98,61 % in zwei Iterationen.

66,67 %
Baseline-Recall@5
Iteration 0
98,61 %
Interner Recall@5
Iteration 2 — 72 Fragen, 7 Domänen
94,79 %
Recall@5 extern
LongMemEval-S — SOTA-vergleichbar

Die Verbesserung von 66,67 % auf 98,61 % folgte einem strukturierten Iteration-Protokoll: Baseline messen, Engpass identifizieren, gezielt verbessern, erneut messen.

Lessons Learned

Drei Sackgassen aus dem Bauprozess.

  • Sackgasse 1
    Flat-File-Memory. Markdown-Dateien sind volltext-durchsuchbar. Bei 500+ Einträgen liefert Volltextsuche schlechte Recall-Qualität. Der Schritt zum Graphen wurde unausweichlich.
  • Sackgasse 2
    Reiner Vektor-Index. Cosine-Similarity scheitert an präzisen Namen und IDs. „Welches Recall-System läuft auf Server X?“ ist eine semantisch einfache Frage mit unzuverlässiger Vektor-Antwort. BM25-Hybrid war der Schlüssel.
  • Sackgasse 3
    Widersprüchliche Fakten ohne Invalidierung. Ein Graph ohne Edge-Invalidation-Resolver gibt auf die Frage „Welcher Wert gilt gerade?“ eine zufällige Antwort. Singleton-Cardinality löst das.

Für Ihre Praxis

Was ein Knowledge-Graph-Projekt mit mir konkret bedeutet.

Wenn Sie ein Memory- oder Knowledge-Graph-Projekt planen, bringe ich den Befund mit: Welches Retrieval-System passt zu Ihren Daten und Use-Cases? Was sind realistische Qualitäts-Erwartungen? Welche Engpässe hat die Architektur, die ich aus eigener Erfahrung kenne? Das Ergebnis ist ein schriftlicher Befund.

Bereit für eine KI-Erstberatung?

30 Minuten, kostenfrei, vertraulich.