Lorvex

ความน่าเชื่อถือ

ข้อมูลเป็นของคุณ ขอบเขต AI ชัดเจน การเปลี่ยนแปลงตรวจสอบย้อนหลังได้

ความน่าเชื่อถือที่นี่มาจากขอบเขตที่ชัดเจน ไม่ใช่คำสัญญาของแบรนด์

Lorvex ควรรู้สึกน่าเชื่อถือเพราะขอบเขตของระบบชัดเจน ไม่ใช่เพราะผลิตภัณฑ์ให้สัญญาคลุมเครือ

โมเดลความน่าเชื่อถือนั้นตรงไปตรงมา: ข้อมูลการวางแผนเป็นของคุณ ขอบเขตของ AI ชัดเจน โค้ดเป็นโอเพนซอร์ส และทุกการกระทำที่ผู้ช่วยเริ่มต้นสามารถตรวจสอบย้อนหลังได้

ข้อมูลเป็นของคุณ
พื้นที่จัดเก็บ

สถานะการวางแผนหลักถูกจัดเก็บบนอุปกรณ์ตามค่าเริ่มต้น การส่งออกหรือซิงค์เกิดขึ้นผ่านเส้นทางที่เปิดใช้งานอย่างชัดเจนเท่านั้น

โอเพนซอร์ส
ตรวจสอบ

โปรเจกต์หลักเป็นโอเพนซอร์สและเปิดเผย การอ้างพฤติกรรมควรสอดคล้องกับโค้ด สถาปัตยกรรม และขอบเขตผลิตภัณฑ์ที่มองเห็นได้

ขอบเขต AI ที่ชัดเจน
AI

Lorvex ไม่ซ่อนโมเดลที่เปิดตลอดเวลาไว้ในแอป ผู้ช่วยดำเนินการผ่านขอบเขตไคลเอนต์ที่ชัดเจนและเครื่องมือที่ชัดเจน

โมเดล

สิ่งนี้หมายความว่าอย่างไรในทางปฏิบัติ

คำกล่าวเหล่านี้ตั้งใจเขียนให้แคบและเฉพาะเจาะจง เพราะมันอธิบายขอบเขตที่ตัวผลิตภัณฑ์ถูกออกแบบไว้ในวันนี้

พื้นที่จัดเก็บ
ข้อมูลการวางแผนหลักถูกจัดเก็บบนอุปกรณ์ตามค่าเริ่มต้น
ขอบเขต
ไม่มีสภาพแวดล้อมรันโมเดลในตัว ผู้ช่วยเชื่อมต่อผ่านไคลเอนต์ภายนอกและดำเนินการผ่านเครื่องมือที่ชัดเจน
โอเพนซอร์ส
โค้ดหลักเป็นโอเพนซอร์สและตรวจสอบได้ ติดตามการเปลี่ยนแปลงในคลังโค้ดสาธารณะ
การเปลี่ยนแปลง
การเปลี่ยนแปลงที่ผู้ช่วยเริ่มจะถูกบันทึกไว้ในบันทึกการเปลี่ยนแปลงที่คุณย้อนกลับมาดูได้
การวัดระยะไกล
ไม่มีการวิเคราะห์พฤติกรรมตามค่าเริ่มต้น ถ้ามีการเพิ่มเครื่องมือวินิจฉัย จะเป็นแบบเลือกเข้าร่วมและบันทึกไว้ที่นี่
คำถามที่พบบ่อย

คำถามที่พบบ่อยเกี่ยวกับขอบเขต

Lorvex มีสภาพแวดล้อมรันโมเดลในตัวหรือไม่
ไม่ พฤติกรรม AI มาจากไคลเอนต์ผู้ช่วยภายนอกที่เชื่อมต่อผ่าน MCP
AI เปิดตลอดเวลาหรือไม่
ไม่ ในเวอร์ชันอัลฟาปัจจุบัน การดำเนินการของผู้ช่วยเกิดขึ้นเฉพาะเมื่อคุณเรียกใช้อย่างชัดเจน
ข้อมูลสามารถออกจากอุปกรณ์ได้หรือไม่
เฉพาะผ่านเส้นทางการส่งออกหรือซิงค์ที่เปิดใช้งานอย่างชัดเจนเท่านั้น
ผู้ใช้สามารถตรวจสอบการอ้างพฤติกรรมได้หรือไม่
ได้ การอ้างผูกกับสถาปัตยกรรมและขอบเขตการดำเนินงานที่มองเห็นได้
ตรวจสอบ

ช่องทางสาธารณะ

สร้างด้วย Codex + Claude Code โปรเจกต์ส่วนตัวโดย Boyu Gou lorvex.app