بنیادی منصوبہ بندی کی حالت بطورِ پیش فرض آلے پر محفوظ رہتی ہے، اور برآمد یا ہم آہنگی صرف انہی راستوں سے ہوتی ہے جنہیں آپ واضح طور پر فعال کریں۔
اعتماد
ڈیٹا آپ کی ملکیت ہے۔ AI کی حد واضح ہے۔ تبدیلیاں قابل حساب ہیں۔
یہاں اعتماد واضح حدوں سے آتا ہے، برانڈ کے وعدوں سے نہیں۔
Lorvex کو قابلِ اعتماد اس لیے محسوس ہونا چاہیے کہ اس کی حدیں واضح ہیں، نہ کہ اس لیے کہ مصنوع مبہم دعوے کرے۔
اعتماد کا ماڈل سادہ ہے: منصوبہ بندی کا ڈیٹا آپ کا ہے، AI کی حد واضح ہے، کوڈ کھلے ماخذ کا ہے، اور معاون کے شروع کیے گئے کاموں کا جائزہ لیا جا سکتا ہے۔
ڈیٹا آپ کی ملکیت ہے
ذخیرہ
کھلا ماخذ
جانچ
بنیادی منصوبہ کھلے ماخذ کا اور عوامی ہے۔ رویے کے دعوے کوڈ، ساخت اور نظر آنے والی حدوں میں جھلکنے چاہییں۔
AI کی واضح حد
AI
Lorvex ایپ کے اندر ہمیشہ چلنے والا ماڈل نہیں چھپاتی۔ معاونین ایک واضح کلائنٹ حد اور واضح اوزاروں کے ذریعے کام کرتے ہیں۔
ماڈل
عملی طور پر اس کا مطلب
یہ دعوے جان بوجھ کر محدود ہیں۔ یہ اسی حد کو بیان کرتے ہیں جس کے گرد یہ مصنوع آج بنائی گئی ہے۔
- ذخیرہ
- بنیادی منصوبہ بندی کا ڈیٹا بطورِ پیش فرض آلے پر محفوظ رہتا ہے۔
- حد
- اندرونی model runtime موجود نہیں۔ معاونین بیرونی clients کے ذریعے جڑتے ہیں اور واضح اوزاروں کے ذریعے کام کرتے ہیں۔
- کھلا ماخذ
- بنیادی کوڈ کھلے ماخذ کا اور جانچ کے قابل ہے۔ عوامی repository میں تبدیلیاں دیکھیں۔
- تحریری تبدیلیاں
- معاون سے شروع ہونے والی تبدیلیاں تبدیلیوں کے ریکارڈ میں درج ہوتی ہیں جسے آپ بعد میں دیکھ سکتے ہیں۔
- ٹیلی میٹری
- رویے کی جانچ کا کوئی default نظام نہیں۔ اگر diagnostics شامل کی جائیں تو وہ opt-in ہوں گی اور یہاں درج کی جائیں گی۔
عام سوالات
حدود سے متعلق عام سوالات
- کیا Lorvex میں اپنا model runtime شامل ہے؟
- نہیں۔ AI کا رویہ MCP کے ذریعے جڑے بیرونی معاون clients سے آتا ہے۔
- کیا AI ہمیشہ فعال رہتی ہے؟
- نہیں۔ موجودہ alpha میں معاون کی کارروائی صرف تب ہوتی ہے جب آپ اسے صاف طور پر بلائیں۔
- کیا ڈیٹا آلے سے باہر جا سکتا ہے؟
- صرف انہی export یا sync راستوں سے جنہیں آپ نے صاف طور پر فعال کیا ہو۔
- کیا صارف رویے کے دعوے جانچ سکتے ہیں؟
- جی ہاں۔ یہ دعوے نظر آنے والی ساخت اور عملی حدوں سے بندھے ہوئے ہیں۔
جانچ