Lorvex

Confianza

Datos propios. Límite explícito de AI. Cambios auditables.

La confianza aquí viene de límites claros, no de promesas de marca.

Lorvex debería sentirse confiable porque el límite del sistema es claro, no porque el producto haga promesas vagas.

El modelo de confianza es simple: tus datos de planificación son tuyos, los límites de AI están claros, el código es abierto y las operaciones iniciadas por el asistente se pueden inspeccionar.

Datos propios
Almacenamiento

El estado de planificación principal se almacena en el dispositivo por defecto, con exportación o sincronización solo a través de rutas explícitamente habilitadas.

Código abierto
Inspección

El proyecto principal es de código abierto y público. Las afirmaciones sobre el comportamiento deberían reflejarse en el código, la arquitectura y los límites visibles del producto.

Límite explícito de AI
AI

Lorvex no oculta un modelo siempre activo dentro de la app. Los asistentes operan a través de un límite de cliente explícito y herramientas explícitas.

Modelo

Qué significa esto en la práctica

Estas afirmaciones son intencionalmente acotadas. Describen el límite alrededor del cual el producto está diseñado hoy.

Almacenamiento
Los datos de planificación principales se almacenan en el dispositivo por defecto.
Límite
Sin runtime de modelo integrado. Los asistentes se conectan a través de clientes externos y operan mediante herramientas explícitas.
Código abierto
El código principal es de código abierto y auditable. Sigue los cambios en el repositorio público.
Escrituras
Los cambios iniciados por el asistente se registran como un historial que puedes revisar.
Telemetría
Sin analítica de comportamiento por defecto. Si se añaden diagnósticos, serán opcionales y se documentarán aquí.
FAQ

Preguntas frecuentes sobre los límites

¿Lorvex incluye su propio runtime de modelo?
No. El comportamiento de AI proviene de clientes asistentes externos conectados a través de MCP.
¿La AI está siempre activa?
No. En la alpha actual, la operación del asistente ocurre solo cuando lo invocas explícitamente.
¿Pueden los datos salir del dispositivo?
Solo a través de rutas de exportación o sincronización explícitamente habilitadas.
¿Pueden los usuarios inspeccionar las afirmaciones de comportamiento?
Sí. Las afirmaciones están vinculadas a la arquitectura visible y los límites de operación.
Inspección

Superficies públicas

Construido con Codex + Claude Code. Un proyecto personal de Boyu Gou. lorvex.app