El estado de planificación principal se almacena en el dispositivo por defecto, con exportación o sincronización solo a través de rutas explícitamente habilitadas.
Datos propios. Límite explícito de AI. Cambios auditables.
La confianza aquí viene de límites claros, no de promesas de marca.
Lorvex debería sentirse confiable porque el límite del sistema es claro, no porque el producto haga promesas vagas.
El modelo de confianza es simple: tus datos de planificación son tuyos, los límites de AI están claros, el código es abierto y las operaciones iniciadas por el asistente se pueden inspeccionar.
El proyecto principal es de código abierto y público. Las afirmaciones sobre el comportamiento deberían reflejarse en el código, la arquitectura y los límites visibles del producto.
Lorvex no oculta un modelo siempre activo dentro de la app. Los asistentes operan a través de un límite de cliente explícito y herramientas explícitas.
Qué significa esto en la práctica
Estas afirmaciones son intencionalmente acotadas. Describen el límite alrededor del cual el producto está diseñado hoy.
- Almacenamiento
- Los datos de planificación principales se almacenan en el dispositivo por defecto.
- Límite
- Sin runtime de modelo integrado. Los asistentes se conectan a través de clientes externos y operan mediante herramientas explícitas.
- Código abierto
- El código principal es de código abierto y auditable. Sigue los cambios en el repositorio público.
- Escrituras
- Los cambios iniciados por el asistente se registran como un historial que puedes revisar.
- Telemetría
- Sin analítica de comportamiento por defecto. Si se añaden diagnósticos, serán opcionales y se documentarán aquí.
Preguntas frecuentes sobre los límites
- ¿Lorvex incluye su propio runtime de modelo?
- No. El comportamiento de AI proviene de clientes asistentes externos conectados a través de MCP.
- ¿La AI está siempre activa?
- No. En la alpha actual, la operación del asistente ocurre solo cuando lo invocas explícitamente.
- ¿Pueden los datos salir del dispositivo?
- Solo a través de rutas de exportación o sincronización explícitamente habilitadas.
- ¿Pueden los usuarios inspeccionar las afirmaciones de comportamiento?
- Sí. Las afirmaciones están vinculadas a la arquitectura visible y los límites de operación.