Lorvex

اعتماد

داده‌ها متعلق به شماست. مرز AI روشن است. تغییرات قابل بازبینی‌اند.

اعتماد اینجا از مرزهای شفاف می‌آید، نه وعده‌های برند.

Lorvex باید از دل مرزهای روشنش قابل اعتماد به نظر برسد، نه از دل وعده‌های مبهم بازاری.

مدل اعتماد ساده است: داده‌های برنامه‌ریزی مال شماست، مرز AI صریح است، کد متن‌باز است و هر عملیاتی که دستیار شروع می‌کند قابل بررسی می‌ماند.

داده‌ها متعلق به شماست
ذخیره‌سازی

وضعیت اصلی برنامه‌ریزی به‌طور پیش‌فرض روی دستگاه ذخیره می‌شود، و خروجی یا همگام‌سازی فقط از مسیرهایی که صراحتاً فعال شده‌اند.

متن‌باز
بررسی

پروژه اصلی متن‌باز و عمومی است. ادعاهای رفتاری باید با کد، معماری و مرزهای قابل مشاهده محصول مطابقت داشته باشند.

مرز صریح AI
AI

Lorvex مدلی همیشه‌روشن را در داخل اپلیکیشن پنهان نمی‌کند. دستیاران از طریق مرز صریح کلاینت و ابزارهای صریح کار می‌کنند.

مدل

این در عمل به چه معناست

این ادعاها عمداً محدود هستند. مرزهایی را توصیف می‌کنند که محصول امروز حول آنها طراحی شده است.

ذخیره‌سازی
داده‌های اصلی برنامه‌ریزی به‌طور پیش‌فرض روی دستگاه ذخیره می‌شوند.
مرز
هیچ محیط اجرای مدل داخلی وجود ندارد. دستیاران از طریق کلاینت‌های خارجی متصل می‌شوند و از طریق ابزارهای صریح کار می‌کنند.
متن‌باز
کد اصلی متن‌باز و قابل بازرسی است. تغییرات را در مخزن عمومی دنبال کنید.
تغییرات
تغییراتی که دستیار آغاز می‌کند به‌عنوان تاریخچه‌ای ثبت می‌شوند که بعداً بتوانید مرورش کنید.
تله‌متری
هیچ تحلیل رفتاری پیش‌فرضی وجود ندارد. اگر تشخیص‌هایی اضافه شوند، اختیاری و مستند در اینجا خواهند بود.
سوالات متداول

پرسش‌های رایج درباره مرزها

آیا Lorvex محیط اجرای مدل خودش را دارد؟
خیر. رفتار AI از کلاینت‌های دستیار خارجی متصل از طریق MCP می‌آید.
آیا AI همیشه روشن است؟
خیر. در نسخه آلفای فعلی، عملکرد دستیار فقط زمانی اتفاق می‌افتد که صراحتاً آن را فراخوانی کنید.
آیا داده‌ها می‌توانند دستگاه را ترک کنند؟
فقط از طریق مسیرهای خروجی یا همگام‌سازی که صراحتاً فعال شده‌اند.
آیا کاربران می‌توانند ادعاهای رفتاری را بررسی کنند؟
بله. ادعاها به معماری قابل مشاهده و مرزهای عملیاتی مرتبط هستند.
بررسی

سطوح عمومی

ساخته‌شده با Codex + Claude Code. پروژه شخصی Boyu Gou. lorvex.app