Lorvex

Vertrauen

Eigene Daten. Explizite AI-Grenze. Nachvollziehbare Änderungen.

Vertrauen entsteht hier durch klare Grenzen, nicht durch Markenversprechen.

Lorvex soll Vertrauen verdienen, weil die Systemgrenze klar ist – nicht, weil das Produkt vage Versprechen macht.

Das Vertrauensmodell ist einfach: Ihre Planungsdaten gehören Ihnen, die Grenzen von AI sind klar markiert, der Code ist quelloffen, und vom Assistenten ausgelöste Operationen bleiben überprüfbar.

Eigene Daten
Speicherung

Der zentrale Planungszustand wird standardmäßig auf dem Gerät gespeichert, mit Export oder Synchronisation nur über explizit freigegebene Pfade.

Open Source
Überprüfung

Das Kernprojekt ist Open Source und öffentlich. Aussagen zum Verhalten sollten sich im Code, in der Architektur und in sichtbaren Produktgrenzen wiederfinden.

Explizite AI-Grenze
AI

Lorvex versteckt kein ständig aktives Modell in der App. Assistenten arbeiten über eine explizite Client-Grenze und explizite Werkzeuge.

Modell

Was das in der Praxis bedeutet

Diese Aussagen sind absichtlich eng gefasst. Sie beschreiben die Grenze, um die herum das Produkt heute konzipiert ist.

Speicherung
Zentrale Planungsdaten werden standardmäßig auf dem Gerät gespeichert.
Grenze
Keine eingebaute Modell-Laufzeitumgebung. Assistenten verbinden sich über externe Clients und arbeiten mit expliziten Werkzeugen.
Open Source
Der Kerncode ist Open Source und auditierbar. Verfolgen Sie Änderungen im öffentlichen Repository.
Schreibvorgänge
Vom Assistenten initiierte Änderungen werden als Änderungsprotokoll aufgezeichnet, das Sie einsehen können.
Telemetrie
Keine standardmäßige Verhaltensanalyse. Falls Diagnosefunktionen hinzugefügt werden, sind sie Opt-in und werden hier dokumentiert.
FAQ

Häufige Fragen zu Grenzen

Enthält Lorvex eine eigene Modell-Laufzeitumgebung?
Nein. AI-Verhalten stammt von externen Assistenten-Clients, die über MCP verbunden sind.
Ist die AI ständig aktiv?
Nein. In der aktuellen Alpha findet die Assistenten-Operation nur statt, wenn Sie sie explizit aufrufen.
Können Daten das Gerät verlassen?
Nur über explizit freigegebene Export- oder Synchronisationspfade.
Können Nutzer Verhaltensaussagen überprüfen?
Ja. Aussagen sind an die sichtbare Architektur und Betriebsgrenzen gebunden.
Überprüfen

Öffentliche Oberflächen

Entwickelt mit Codex + Claude Code. Ein persönliches Projekt von Boyu Gou. lorvex.app