Zum Inhalt springen

Das grosse Bild

Organisationen sitzen auf Daten, die sie nicht verstehen. Spitallieferketten verlieren Umsatz. Skigebiete koennen Ticketverkaeufe nicht mit Liftfahrten abgleichen. Spediteure verlieren die Uebersicht zwischen Kontrollpunkten. Anwaltskanzleien verrechnen Stunden, die sie nicht nachverfolgen koennen.

Die Daten existieren. Die Fragen existieren. Was fehlt, ist ein systematischer Weg von “etwas stimmt nicht” zu “deshalb ist es so, und das sollten wir tun.”

jinflow ist dieses System.

Deklariere, was du erkennen willst. Die Engine erledigt den Rest.

Du schreibst ein Signal: “Finde Faelle, bei denen Abrechnungsereignisse fehlen.” Du schreibst eine Thesis: “Ist das eine systematische Abrechnungsluecke?” Du schreibst ein Verdict: “Der Abrechnungsausloeser feuert nur bei stationaeren Entlassungen.”

Jede Deklaration wird zu SQL kompiliert. Jedes SQL-Modell laeuft gegen deine Daten. Jedes Ergebnis speist die naechste Ebene. Das Ergebnis ist ein Knowledge Store — eine einzelne DuckDB-Datei mit Findings, Verdicts, Erklaerungen und Expertenwissen. Durchsuchbar im Explorer.

Kein eigener Code. Keine Ad-hoc-Abfragen. Keine Dashboards, die eine Frage beantworten und drei neue aufwerfen. Eine deklarative Pipeline, die Verstaendnis aufbaut.

Jede Ebene baut auf der darunterliegenden auf. Signals erkennen. Perspectives aggregieren. Theses bewerten. Verdicts erklaeren. Und neben der Pyramide erfassen SMEbits Expertenwissen, das kein Datenmodell ableiten kann.

Die Pyramide hat eine klare Trennung — und diese Trennung definiert zwei parallele Entwicklungspfade. Die P-world (Pipeline) baut die Datenbasis. Die T-world (Talk) baut die analytische Intelligenz. Beide entwickeln sich kontinuierlich und unabhaengig. Das Entity + Contract ist das stabile Interface zwischen ihnen.

P-world (Pipeline) ist Data Engineering: Einlesen, Validieren, Gouvernieren. Das Ergebnis sind saubere, quellsystem-agnostische Entities. Ein Engineer kann Quellsystem-Adapter verbessern, Validierungsregeln korrigieren, neue Entities hinzufuegen — ohne ein einziges Signal oder eine Thesis anzufassen.

T-world (Talk) ist analytische Arbeit: Deklariere, was erkannt werden soll, bewerte ob es real ist, erklaere warum. Ein Berater kann Signals hinzufuegen, Theses verfeinern, SMEbits erfassen — ohne die Pipeline anzufassen.

Keine Welt blockiert die andere. Beide entwickeln sich kontinuierlich. jinflow make baut beide in einem Durchgang neu. jinflow evolve unterstuetzt beide — ob du ein Datenqualitaetsproblem debuggst oder ein neues Verdict entwirfst.

Das Entity ist die Uebergabe. Der Data Engineer garantiert seine Form und Qualitaet. Der Analyst vertraut auf diese Garantie. Zwei verschiedene Faehigkeiten, ein gemeinsames Interface.

Pipeline bauenMit den Daten sprechen
WerData EngineerAnalyst, Berater, Fachexperte
Denkt inSQL, Schemas, DatenqualitaetFragen, Theses, Evidenz
Schreibtdbt-Modelle, Quellsystem-MacrosSignals, Theses, Verdicts, SMEbits
Endet bei / beginnt beiEntity (Gold)Entity (Gold)
Toolsjinflow make, dbt CLIExplorer, jinflow evolve, YAML-Editor

Make kompiliert deine Deklarationen und baut den Knowledge Store. Explore laesst dich Findings durchsuchen, Theses testen und Evidenz pruefen in einer Web-Oberflaeche. Evolve verbindet dich mit Claude AI fuer tiefere Analysen. Jeder Zyklus vertieft das Verstaendnis.

Deklarativ, nicht prozedural. Du deklarierst, was erkannt werden soll. Die Engine entscheidet, wie es berechnet wird. Heute sind die Deklarationen YAML, kompiliert zu SQL. Morgen koennte es eine andere Oberflaeche sein — das Prinzip bleibt.

Kein stilles Filtern. Ungueltige Daten werden markiert, nicht verworfen. Jede Zeile traegt ein is_valid-Flag und einen invalid_reason. Gold zeigt nur gueltige Zeilen, aber Silver bewahrt alles auf. Nichts verschwindet spurlos.

Qualitaet ist abfragbar. Datenqualitaet ist kein Nebenbericht — sie ist ein erstklassiges dbt-Modell. Du kannst Qualitaetsmetriken genauso abfragen wie die Daten selbst.

Wissen als Daten. Expertenwissen (SMEbits) lebt in derselben Pipeline wie Findings. Es ist zugeordnet, versioniert, begrenzt und optional testbar. Der Unterschied zwischen Daten und Wissen ist das Warum.

Multi-Tenant von Anfang an. Jeder Tenant ist ein isoliertes DuckDB-Schema. Tenants teilen das analytische Framework, sehen aber nie die Daten der anderen. Die KI ist auf genau einen Tenant pro Sitzung beschraenkt.

Domain Packs treiben die Analytik. Jedes Pack buendelt Signals, Theses, Verdicts, SMEbits, Contracts und Quellsystem-Adapter fuer eine bestimmte Branche. Die Engine ist domain-agnostisch — Packs bringen die Fachexpertise. Referenz-Packs umfassen nuMetrix (Gesundheitswesen), Millesime (Weinbau), Alptrack (Skigebiete), InterLogic (Logistik) und mehr.

RolleWeltWas sie tun
Data EngineerPipeline bauenPflegt die Medallion-Pipeline. Fuegt Quellsystem-Adapter hinzu. Liefert saubere Entities.
BeraterMit den Daten sprechenBaut Signals und Theses fuer Kunden. Verpackt Expertise in Domain Packs.
AnalystMit den Daten sprechenErforscht Findings im Explorer. Erfasst Expertenwissen als SMEbits.
FuehrungErgebnisse konsumierenPrueft Executive Summaries, bestaetigte Theses und Verdict-Grundursachen.

Gegenueber BI-Tools: BI-Dashboards beantworten vordefinierte Fragen. jinflow entdeckt Fragen, von denen du nicht wusstest, dass du sie stellen solltest — und erklaert, warum die Antworten wichtig sind.

Gegenueber Datenqualitaets-Tools: Qualitaetstools markieren fehlerhafte Daten. jinflow erkennt Muster (Signals), bewertet ob sie systematisch sind (Theses), erklaert warum sie auftreten (Verdicts) und empfiehlt, was zu tun ist.

Gegenueber Custom Analytics: Eigener Code ist maechtig, aber fragil. jinflow bietet ein deklaratives Framework, in dem die analytische Logik versioniert, kompiliert und reproduzierbar ist — nicht in Notebooks oder Skripten vergraben.

jazzisnow jinflow is a jazzisnow product
v0.45.1 · built 2026-04-17 08:14 UTC