मुख्य नियोजन-स्थिती डिफॉल्टने डिव्हाइसवर साठवली जाते; export किंवा sync फक्त तुम्ही स्पष्टपणे सक्षम केलेल्या मार्गांनीच होतात.
विश्वास
मालकीचा डेटा. स्पष्ट AI सीमा. तपासता येणारे बदल.
इथला विश्वास हा ब्रँडच्या आश्वासनांमधून नव्हे, तर स्पष्ट सीमांतून येतो.
Lorvex विश्वासार्ह वाटावे, कारण प्रणालीची सीमा स्पष्ट आहे; उत्पादनाने धूसर आश्वासने दिली म्हणून नव्हे.
विश्वासाचा पाया सोपा आहे: नियोजन डेटा तुमचाच, AI ची सीमा स्पष्ट, कोड मुक्त-स्रोत, आणि सहाय्यकाने सुरू केलेल्या कृती तपासता येण्यासारख्या.
मालकीचा डेटा
स्टोरेज
खुला स्रोत
तपासणी
मुख्य प्रकल्प खुल्या स्रोताचा आणि सार्वजनिक आहे. वर्तनाबद्दलचा प्रत्येक दावा कोड, आर्किटेक्चर आणि दिसणाऱ्या उत्पादन-सीमांशी जुळला पाहिजे.
स्पष्ट AI सीमा
AI
Lorvex अॅपच्या आत नेहमी चालू असलेले मॉडेल लपवत नाही. सहाय्यक स्पष्ट client boundary आणि स्पष्ट साधनांच्या माध्यमातून काम करतात.
मॉडेल
याचा व्यवहारात अर्थ काय
हे दावे जाणीवपूर्वक मर्यादित आहेत. आज उत्पादन ज्या सीमाभोवती डिझाइन केले आहे, तीच ते वर्णन करतात.
- स्टोरेज
- मुख्य नियोजन डेटा डिफॉल्टने डिव्हाइसवर साठवला जातो.
- सीमा
- कोणताही अंगभूत model runtime नाही. सहाय्यक बाह्य clients मधून जोडले जातात आणि स्पष्ट साधनांच्या माध्यमातून काम करतात.
- खुला स्रोत
- मुख्य कोड खुल्या स्रोताचा आहे आणि तपासता येतो. सार्वजनिक repository मध्ये बदलांचा मागोवा घ्या.
- बदल
- सहाय्यकाने सुरू केलेले बदल तुम्ही तपासू शकता अशा बदलनोंदीत नोंदवले जातात.
- टेलिमेट्री
- डिफॉल्टने कोणतेही behavioral analytics नाही. diagnostics जोडले गेले, तर ते opt-in असतील आणि येथे दस्तऐवजीकृत केले जातील.
नेहमीचे प्रश्न
सामान्य सीमा प्रश्न
- Lorvex मध्ये स्वतःचा model runtime आहे का?
- नाही. AI वर्तन MCP मधून जोडलेल्या बाह्य सहाय्यक clients कडून येते.
- AI नेहमी चालू असतो का?
- नाही. सध्याच्या alpha मध्ये सहाय्यकाचे कामकाज फक्त तुम्ही स्पष्टपणे सुरू केले तरच होते.
- डेटा डिव्हाइसच्या बाहेर जाऊ शकतो का?
- फक्त स्पष्टपणे सक्षम केलेल्या export किंवा sync मार्गांनी.
- वापरकर्ते वर्तनाबद्दलचे दावे तपासू शकतात का?
- हो. दावे दिसणाऱ्या आर्किटेक्चर आणि कार्यसीमांशी जोडलेले आहेत.
तपासा