Lorvex

Confiança

Dados próprios. Limite explícito de AI. Mudanças auditáveis.

A confiança aqui vem de limites claros, não de promessas de marca.

Lorvex deveria parecer confiável porque o limite do sistema é claro, não porque o produto faz promessas vagas.

O modelo de confiança é simples: seus dados de planejamento são seus, os limites da AI são claros, o código é aberto, e as operações iniciadas pelo assistente seguem auditáveis.

Dados próprios
Armazenamento

O estado de planejamento principal é armazenado no dispositivo por padrão, com exportação ou sincronização apenas por caminhos explicitamente habilitados.

Código aberto
Inspeção

O projeto principal é de código aberto e público. As afirmações sobre comportamento devem aparecer no código, na arquitetura e nos limites visíveis do produto.

Limite explícito de AI
AI

Lorvex não esconde um modelo sempre ativo dentro do app. Assistentes operam através de um limite de cliente explícito e ferramentas explícitas.

Modelo

O que isso significa na prática

Essas afirmações são intencionalmente restritas. Elas descrevem o limite em torno do qual o produto é projetado hoje.

Armazenamento
Os dados de planejamento principais são armazenados no dispositivo por padrão.
Limite
Sem runtime de modelo integrado. Assistentes se conectam através de clientes externos e operam por meio de ferramentas explícitas.
Código aberto
O código principal é de código aberto e auditável. Acompanhe as mudanças no repositório público.
Escritas
Mudanças iniciadas pelo assistente são registradas como um histórico que você pode revisar.
Telemetria
Sem analytics comportamental por padrão. Se diagnósticos forem adicionados, serão opcionais e documentados aqui.
FAQ

Perguntas frequentes sobre os limites

O Lorvex inclui seu próprio runtime de modelo?
Não. O comportamento de AI vem de clientes assistentes externos conectados através de MCP.
A AI está sempre ativa?
Não. Na alpha atual, a operação do assistente acontece apenas quando você a invoca explicitamente.
Os dados podem sair do dispositivo?
Apenas através de caminhos de exportação ou sincronização explicitamente habilitados.
Os usuários podem inspecionar as afirmações de comportamento?
Sim. As afirmações estão vinculadas à arquitetura visível e aos limites de operação.
Inspeção

Superfícies públicas

Construído com Codex + Claude Code. Um projeto pessoal de Boyu Gou. lorvex.app