אמון
הנתונים שלכם בבעלותכם. גבול AI מפורש. שינויים שניתנים לביקורת.
האמון כאן נובע מגבולות ברורים, לא מהבטחות מותג.
Lorvex אמורה להרגיש אמינה כי גבול המערכת ברור, לא כי המוצר מפזר הבטחות מעורפלות.
מודל האמון פשוט: נתוני התכנון שלכם שייכים לכם, גבול ה-AI מפורש, הקוד פתוח, וכל פעולה שמתחילה מעוזר נשארת ניתנת לבדיקה.
מצב התכנון המרכזי נשמר כברירת מחדל על המכשיר, עם ייצוא או סנכרון רק דרך מסלולים שמופעלים במפורש.
הפרויקט המרכזי הוא קוד פתוח ופומבי. טענות התנהגות צריכות להיקשר לקוד, לארכיטקטורה ולגבולות מוצר גלויים.
Lorvex לא מסתירה מודל שפועל תמיד בתוך האפליקציה. עוזרים פועלים דרך גבול לקוח מפורש וכלים מפורשים.
מודל
מה זה אומר בפועל
הטענות האלה צרות בכוונה. הן מתארות את הגבול שסביבו המוצר מתוכנן כיום.
- אחסון
- נתוני התכנון המרכזיים נשמרים כברירת מחדל על המכשיר.
- גבול
- אין סביבת ריצה מובנית למודל. עוזרים מתחברים דרך לקוחות חיצוניים ופועלים דרך כלים מפורשים.
- קוד פתוח
- קוד הליבה פתוח וניתן לביקורת. עקבו אחרי השינויים במאגר הציבורי.
- שינויים
- שינויים שמתחילים מעוזר נרשמים ביומן שינויים שאפשר לעבור עליו אחר כך.
- טלמטריה
- אין אנליטיקת התנהגות כברירת מחדל. אם יתווספו דיאגנוסטיקות, הן יהיו opt-in ויתועדו כאן.
שאלות נפוצות
שאלות גבול נפוצות
- האם Lorvex כוללת סביבת ריצה משלה למודל?
- לא. התנהגות ה-AI מגיעה מלקוחות עוזר חיצוניים המחוברים דרך MCP.
- האם ה-AI תמיד פועל?
- לא. באלפא הנוכחית, פעולת העוזר מתרחשת רק כשאתם מפעילים אותה במפורש.
- האם נתונים יכולים לעזוב את המכשיר?
- רק דרך מסלולי ייצוא או סנכרון שמופעלים במפורש.
- האם משתמשים יכולים לבדוק טענות על התנהגות?
- כן. הטענות קשורות לארכיטקטורה גלויה ולגבולות פעולה.