Lorvex

신뢰

데이터는 당신의 것. AI 경계는 명확하게. 변경 사항은 감사 가능하게.

여기서의 신뢰는 브랜드 약속이 아닌 명확한 경계에서 나옵니다.

Lorvex가 신뢰할 만하다고 느껴져야 하는 이유는 제품이 막연한 약속을 하기 때문이 아니라, 시스템 경계가 명확하기 때문입니다.

신뢰 모델은 단순합니다. 계획 데이터는 당신의 것이고, AI의 경계는 분명하며, 코드는 오픈소스이고, 어시스턴트가 시작한 작업은 추적할 수 있습니다.

데이터는 당신의 것
저장

핵심 계획 데이터는 기본적으로 기기에 저장되며, 내보내기나 동기화는 명시적으로 활성화된 경로를 통해서만 이루어집니다.

오픈소스
검증

핵심 프로젝트는 오픈소스이며 공개되어 있습니다. 동작에 대한 주장은 코드, 아키텍처, 가시적인 제품 경계에 대응해야 합니다.

명시적인 AI 경계
AI

Lorvex는 앱 안에 상시 가동 모델을 숨겨 두지 않습니다. 어시스턴트는 명시적인 클라이언트 경계와 도구를 통해서만 동작합니다.

모델

실제로 무엇을 의미하는가

이 주장들은 의도적으로 좁은 범위로 한정됩니다. 현재 제품이 설계된 경계를 설명합니다.

저장
핵심 계획 데이터는 기본적으로 기기에 저장됩니다.
경계
내장된 모델 실행 환경은 없습니다. 어시스턴트는 외부 클라이언트를 통해 연결되고, 명시적인 도구를 통해 동작합니다.
오픈소스
핵심 코드는 오픈소스이며 감사 가능합니다. 공개 저장소에서 변경 사항을 추적할 수 있습니다.
변경
어시스턴트가 시작한 변경은 나중에 검토할 수 있도록 변경 이력에 기록됩니다.
텔레메트리
기본 행동 분석이 없습니다. 진단 기능이 추가될 경우 옵트인 방식이며 여기에 문서화됩니다.
자주 묻는 질문

경계에 관한 자주 묻는 질문

Lorvex에 자체 모델 실행 환경이 들어 있나요?
아니요. AI 동작은 MCP를 통해 연결된 외부 어시스턴트 클라이언트에서 옵니다.
AI가 항상 가동되나요?
아니요. 현재 알파 버전에서는 어시스턴트 동작이 명시적으로 호출할 때만 수행됩니다.
데이터가 기기를 벗어날 수 있나요?
명시적으로 활성화된 내보내기 또는 동기화 경로를 통해서만 가능합니다.
사용자가 동작에 대한 주장을 검증할 수 있나요?
네. 주장은 가시적인 아키텍처와 동작 경계에 연결되어 있습니다.
검증

공개 리소스

Codex + Claude Code로 구축. Boyu Gou의 개인 프로젝트입니다. lorvex.app