मुख्य प्लानिंग स्थिति डिफ़ॉल्ट रूप से डिवाइस पर स्टोर होती है, एक्सपोर्ट या सिंक केवल स्पष्ट रूप से सक्षम पथों के माध्यम से।
विश्वास
आपका डेटा, आपकी मिल्कियत। AI की सीमा साफ़। बदलाव जांचने लायक।
यहां विश्वास स्पष्ट सीमाओं से आता है, ब्रांड के वादों से नहीं।
Lorvex इसलिए भरोसेमंद लगना चाहिए क्योंकि सिस्टम की सीमा स्पष्ट है, न कि इसलिए कि प्रोडक्ट अस्पष्ट वादे करता है।
विश्वास मॉडल सीधा है: आपका योजना डेटा आपका है, AI की सीमा स्पष्ट है, कोड ओपन सोर्स है, और सहायक द्वारा शुरू किए गए कामों की जांच की जा सकती है।
आपका डेटा
स्टोरेज
ओपन सोर्स
निरीक्षण
मुख्य प्रोजेक्ट ओपन सोर्स और सार्वजनिक है। व्यवहार के दावे कोड, आर्किटेक्चर और दिखाई देने वाली प्रोडक्ट सीमाओं से मेल खाने चाहिए।
स्पष्ट AI सीमा
AI
Lorvex ऐप के अंदर कोई हमेशा चालू मॉडल नहीं छुपाता। असिस्टेंट स्पष्ट क्लाइंट सीमा और स्पष्ट टूल्स के माध्यम से काम करते हैं।
मॉडल
व्यवहार में इसका क्या मतलब है
ये दावे जानबूझकर सीमित हैं। ये उस सीमा का वर्णन करते हैं जिसके चारों ओर आज का प्रोडक्ट डिज़ाइन किया गया है।
- स्टोरेज
- मुख्य प्लानिंग डेटा डिफ़ॉल्ट रूप से डिवाइस पर स्टोर होता है।
- सीमा
- कोई बिल्ट-इन मॉडल रनटाइम नहीं। असिस्टेंट बाहरी क्लाइंट के माध्यम से कनेक्ट होते हैं और स्पष्ट टूल्स के माध्यम से काम करते हैं।
- ओपन सोर्स
- मुख्य कोड ओपन सोर्स और ऑडिट योग्य है। सार्वजनिक रिपॉज़िटरी में बदलाव ट्रैक करें।
- लेखन
- असिस्टेंट द्वारा शुरू किए गए बदलाव एक चेंजलॉग के रूप में दर्ज होते हैं जिसकी आप समीक्षा कर सकते हैं।
- टेलीमेट्री
- कोई डिफ़ॉल्ट व्यवहारिक एनालिटिक्स नहीं। अगर डायग्नोस्टिक्स जोड़े जाते हैं, तो वे ऑप्ट-इन और यहां दस्तावेज़ित होंगे।
आम सवाल
सामान्य सीमा प्रश्न
- क्या Lorvex में अपना मॉडल रनटाइम शामिल है?
- नहीं। AI व्यवहार MCP के माध्यम से जुड़े बाहरी असिस्टेंट क्लाइंट्स से आता है।
- क्या AI हमेशा चालू रहता है?
- नहीं। वर्तमान अल्फा में, असिस्टेंट ऑपरेशन तभी होता है जब आप स्पष्ट रूप से इसे शुरू करते हैं।
- क्या डेटा डिवाइस से बाहर जा सकता है?
- केवल स्पष्ट रूप से सक्षम एक्सपोर्ट या सिंक पथों के माध्यम से।
- क्या यूज़र व्यवहार के दावों का निरीक्षण कर सकते हैं?
- हां। दावे दृश्य आर्किटेक्चर और ऑपरेशन सीमाओं से जुड़े हैं।
निरीक्षण