O estado de planejamento principal é armazenado no dispositivo por padrão, com exportação ou sincronização apenas por caminhos explicitamente habilitados.
Dados próprios. Limite explícito de AI. Mudanças auditáveis.
A confiança aqui vem de limites claros, não de promessas de marca.
Lorvex deveria parecer confiável porque o limite do sistema é claro, não porque o produto faz promessas vagas.
O modelo de confiança é simples: seus dados de planejamento são seus, os limites da AI são claros, o código é aberto, e as operações iniciadas pelo assistente seguem auditáveis.
O projeto principal é de código aberto e público. As afirmações sobre comportamento devem aparecer no código, na arquitetura e nos limites visíveis do produto.
Lorvex não esconde um modelo sempre ativo dentro do app. Assistentes operam através de um limite de cliente explícito e ferramentas explícitas.
O que isso significa na prática
Essas afirmações são intencionalmente restritas. Elas descrevem o limite em torno do qual o produto é projetado hoje.
- Armazenamento
- Os dados de planejamento principais são armazenados no dispositivo por padrão.
- Limite
- Sem runtime de modelo integrado. Assistentes se conectam através de clientes externos e operam por meio de ferramentas explícitas.
- Código aberto
- O código principal é de código aberto e auditável. Acompanhe as mudanças no repositório público.
- Escritas
- Mudanças iniciadas pelo assistente são registradas como um histórico que você pode revisar.
- Telemetria
- Sem analytics comportamental por padrão. Se diagnósticos forem adicionados, serão opcionais e documentados aqui.
Perguntas frequentes sobre os limites
- O Lorvex inclui seu próprio runtime de modelo?
- Não. O comportamento de AI vem de clientes assistentes externos conectados através de MCP.
- A AI está sempre ativa?
- Não. Na alpha atual, a operação do assistente acontece apenas quando você a invoca explicitamente.
- Os dados podem sair do dispositivo?
- Apenas através de caminhos de exportação ou sincronização explicitamente habilitados.
- Os usuários podem inspecionar as afirmações de comportamento?
- Sim. As afirmações estão vinculadas à arquitetura visível e aos limites de operação.