Lorvex

Confiance

Données personnelles. Frontière AI explicite. Modifications auditables.

La confiance ici repose sur des limites claires, pas sur des promesses de marque.

Lorvex doit inspirer confiance parce que la frontière du système est claire, pas parce que le produit fait des promesses vagues.

Le modèle de confiance est simple : vos données de planification vous appartiennent, le périmètre de l'AI est explicite, le code est en source ouverte, et les opérations lancées par l’assistant restent vérifiables.

Données personnelles
Stockage

L'état de planification principal est stocké sur l'appareil par défaut, avec export ou synchronisation uniquement via des chemins explicitement activés.

Open source
Inspection

Le projet principal est open source et public. Les affirmations sur le comportement doivent se lire dans le code, l’architecture et les frontières visibles du produit.

Frontière AI explicite
AI

Lorvex n'intègre pas de modèle actif en permanence dans l'application. Les assistants opèrent via une frontière client explicite et des outils explicites.

Modèle

Ce que cela signifie en pratique

Ces affirmations sont volontairement étroites. Elles décrivent la frontière autour de laquelle le produit est conçu aujourd'hui.

Stockage
Les données de planification principales sont stockées sur l'appareil par défaut.
Frontière
Pas de moteur de modèle intégré. Les assistants se connectent via des clients externes et opèrent via des outils explicites.
Open source
Le code principal est open source et auditable. Suivez les modifications dans le dépôt public.
Écritures
Les modifications initiées par l'assistant sont enregistrées dans un journal de modifications que vous pouvez consulter.
Télémétrie
Aucune analyse comportementale par défaut. Si des diagnostics sont ajoutés, ils seront en opt-in et documentés ici.
FAQ

Questions fréquentes sur les frontières

Lorvex inclut-il son propre moteur de modèle ?
Non. Le comportement AI provient de clients assistants externes connectés via MCP.
L'AI est-elle toujours active ?
Non. Dans l'alpha actuelle, l'opération de l'assistant n'a lieu que lorsque vous l'invoquez explicitement.
Les données peuvent-elles quitter l'appareil ?
Uniquement via des chemins d'export ou de synchronisation explicitement activés.
Les utilisateurs peuvent-ils inspecter les affirmations de comportement ?
Oui. Les affirmations sont liées à l'architecture visible et aux frontières d'opération.
Inspecter

Surfaces publiques

Construit avec Codex + Claude Code. Un projet personnel de Boyu Gou. lorvex.app