الانتقال إلى المحتوى الرئيسي

Documentation Index

Fetch the complete documentation index at: https://docs.wolffi.sh/llms.txt

Use this file to discover all available pages before exploring further.

المزودون

يتواصل Wolffish مع نماذج اللغة الكبيرة عبر ثلاثة مزودين باستخدام fetch() خالص — بدون أي SDK. لكل مزود تنسيق تدفق خاص به واتفاقية استدعاء أدوات خاصة به، يوحدها wernicke.ts في واجهة واحدة.

Anthropic (Claude)

POST https://api.anthropic.com/v1/messages
يستخدم تدفق SSE. تصل استدعاءات الأدوات ككتل محتوى tool_use. اضبط مفتاح API الخاص بك في الإعدادات أو مباشرة في config.json. الأفضل لـ: الاستدلال المعقد، واتباع التعليمات التفصيلية، والاستخدام الدقيق للأدوات.

OpenAI (GPT)

POST https://api.openai.com/v1/chat/completions
يستخدم تدفق SSE. تصل استدعاءات الأدوات ككائنات function_call. اضبط مفتاح API الخاص بك في الإعدادات أو مباشرة في config.json. الأفضل لـ: المهام العامة، والمعرفة الواسعة، والردود السريعة.

Ollama (محلي)

POST http://localhost:11434/api/chat
يستخدم تدفق NDJSON. تصل استدعاءات الأدوات كـ JSON مُهيكَل في الاستجابة. لا حاجة لمفتاح API — يعمل بالكامل على جهازك. الأفضل لـ: الخصوصية، والاستخدام دون اتصال، والتجريب بلا تكلفة، والبديل المتوفر دائمًا.

تتبع الصحة

يتتبع thalamus صحة كل مزود بشكل مستقل:
  • عدد الإخفاقات — يزيد عند كل طلب فاشل
  • فترة التهدئة — تراجع أسّي بعد الإخفاقات
  • فحص الاتصالnet.isOnline() للكشف الفوري عن وضع عدم الاتصال
عندما يفشل مزود، يدخل فترة تهدئة قبل أن تُعاد محاولته. يتخطى التدرج المزودين غير الأصحاء وينتقل مباشرة إلى التالي المتاح.

اختيار مزود أساسي

اضبط مزودك الأساسي في الإعدادات أو في config.json. يتدرج التدرج دائمًا بهذا الترتيب: Claude → OpenAI → Ollama. تُجرَّب مزودك الأساسي أولًا، ثم يتولى التدرج عند الفشل.
للحصول على أفضل تجربة، أبقِ Ollama يعمل مع نموذج مُنزَّل كشبكة أمان. حتى لو كنت تستخدم Claude في المقام الأول، فإن وجود بديل محلي يعني أنك لن تعلق أبدًا بلا رد.