Files
lobehub/locales/ar/models.json

1325 lines
393 KiB
JSON
Raw Permalink Blame History

This file contains ambiguous Unicode characters
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
{
"01-ai/yi-1.5-34b-chat.description": "أحدث نموذج مفتوح المصدر من 01.AI، مدرب بدقة ويحتوي على 34 مليار معلمة، يدعم سيناريوهات حوار متعددة، ومدرب على بيانات عالية الجودة ومتوافق مع تفضيلات البشر.",
"01-ai/yi-1.5-9b-chat.description": "أحدث نموذج مفتوح المصدر من 01.AI، مدرب بدقة ويحتوي على 9 مليارات معلمة، يدعم سيناريوهات حوار متعددة، ومدرب على بيانات عالية الجودة ومتوافق مع تفضيلات البشر.",
"360/deepseek-r1.description": "نموذج DeepSeek-R1 من 360 يستخدم التعلم المعزز واسع النطاق في مرحلة ما بعد التدريب لتعزيز قدرات الاستدلال بشكل كبير باستخدام الحد الأدنى من البيانات الموسومة. يضاهي نموذج OpenAI o1 في مهام الرياضيات والبرمجة والاستدلال اللغوي.",
"360gpt-pro-trans.description": "نموذج متخصص في الترجمة، مدرب بدقة لتحقيق جودة ترجمة رائدة.",
"360gpt-pro.description": "360GPT Pro هو نموذج رئيسي من 360 للذكاء الاصطناعي يتميز بكفاءة عالية في معالجة النصوص لمجموعة متنوعة من سيناريوهات معالجة اللغة الطبيعية، ويدعم فهم النصوص الطويلة والحوار متعدد الأدوار.",
"360gpt-turbo-responsibility-8k.description": "360GPT Turbo Responsibility 8K يركز على الأمان الدلالي والمسؤولية في التطبيقات الحساسة للمحتوى، لضمان تجربة مستخدم دقيقة وموثوقة.",
"360gpt-turbo.description": "360GPT Turbo يقدم أداءً قويًا في الحوسبة والدردشة مع فهم دلالي ممتاز وكفاءة عالية في التوليد، مما يجعله مثاليًا للمؤسسات والمطورين.",
"360gpt2-o1.description": "360gpt2-o1 يبني سلسلة التفكير من خلال البحث الشجري وآلية الانعكاس والتدريب بالتعلم المعزز، مما يمكنه من التفكير الذاتي وتصحيح الأخطاء.",
"360gpt2-pro.description": "360GPT2 Pro هو نموذج متقدم لمعالجة اللغة الطبيعية من 360 يتميز بتوليد وفهم نصوص ممتاز، خاصة في المهام الإبداعية، ويعالج التحولات المعقدة ولعب الأدوار.",
"360zhinao2-o1.5.description": "360 Zhinao أقوى نموذج استدلال، يتميز بأقوى القدرات ويدعم استدعاء الأدوات والاستدلال المتقدم.",
"360zhinao2-o1.description": "360zhinao2-o1 يبني سلسلة التفكير من خلال البحث الشجري وآلية الانعكاس والتدريب بالتعلم المعزز، مما يمكنه من التفكير الذاتي وتصحيح الأخطاء.",
"360zhinao3-o1.5.description": "360 Zhinao نموذج الاستدلال من الجيل التالي.",
"4.0Ultra.description": "Spark Ultra هو أقوى نموذج في سلسلة Spark، يعزز فهم النصوص وتلخيصها، ويطور البحث عبر الإنترنت. يُعد حلاً شاملاً لزيادة الإنتاجية في بيئة العمل وتقديم إجابات دقيقة، مما يجعله منتجًا ذكيًا رائدًا.",
"AnimeSharp.description": "AnimeSharp (المعروف أيضًا باسم \"4x-AnimeSharp\") هو نموذج مفتوح المصدر لتحسين دقة الصور يعتمد على ESRGAN من Kim2091، يركز على تكبير وتحسين صور الأنمي. تم تغيير اسمه من \"4x-TextSharpV1\" في فبراير 2022، وكان مخصصًا أيضًا لصور النصوص ولكنه أصبح محسنًا بشكل كبير لمحتوى الأنمي.",
"Baichuan2-Turbo.description": "يستخدم تعزيز البحث لربط النموذج بالمعرفة المتخصصة ومعرفة الويب. يدعم تحميل ملفات PDF/Word وإدخال الروابط لاسترجاع شامل وفي الوقت المناسب، مع مخرجات دقيقة واحترافية.",
"Baichuan3-Turbo-128k.description": "بفضل نافذة السياق الطويلة جدًا بحجم 128K، تم تحسينه لسيناريوهات المؤسسات عالية التكرار مع مكاسب كبيرة وقيمة قوية. مقارنة بـ Baichuan2، تحسنت قدرات إنشاء المحتوى بنسبة 20%، والإجابة على الأسئلة المعرفية بنسبة 17%، ولعب الأدوار بنسبة 40%. الأداء العام أفضل من GPT-3.5.",
"Baichuan3-Turbo.description": "تم تحسينه لسيناريوهات المؤسسات عالية التكرار مع مكاسب كبيرة وقيمة قوية. مقارنة بـ Baichuan2، تحسنت قدرات إنشاء المحتوى بنسبة 20%، والإجابة على الأسئلة المعرفية بنسبة 17%، ولعب الأدوار بنسبة 40%. الأداء العام أفضل من GPT-3.5.",
"Baichuan4-Air.description": "نموذج رائد في الصين، يتفوق على النماذج العالمية في المهام الصينية مثل المعرفة، النصوص الطويلة، والتوليد الإبداعي. كما يتميز بقدرات متعددة الوسائط رائدة في الصناعة ونتائج قوية في المعايير الموثوقة.",
"Baichuan4-Turbo.description": "نموذج رائد في الصين، يتفوق على النماذج العالمية في المهام الصينية مثل المعرفة، النصوص الطويلة، والتوليد الإبداعي. كما يتميز بقدرات متعددة الوسائط رائدة في الصناعة ونتائج قوية في المعايير الموثوقة.",
"Baichuan4.description": "أداء محلي رائد، يتفوق على النماذج العالمية في المهام الصينية مثل المعرفة الموسوعية، النصوص الطويلة، والتوليد الإبداعي. كما يقدم قدرات متعددة الوسائط رائدة ونتائج قوية في المعايير.",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS هي عائلة من النماذج مفتوحة المصدر من ByteDance Seed، مصممة للتعامل مع السياقات الطويلة، والاستدلال، والمهام العامة. Seed-OSS-36B-Instruct هو نموذج موجه بالتعليم يحتوي على 36 مليار معلمة مع دعم أصلي للسياقات الطويلة جدًا لمعالجة المستندات الكبيرة أو قواعد الشيفرة. يتميز بقدرات قوية في الاستدلال وتوليد الشيفرة واستخدام الأدوات. من أبرز ميزاته \"ميزانية التفكير\" التي تسمح بطول استدلال مرن لتحسين الكفاءة.",
"DeepSeek-R1-Distill-Llama-70B.description": "تم تقطير DeepSeek R1، النموذج الأكبر والأذكى في مجموعة DeepSeek، إلى بنية Llama 70B. تُظهر المعايير والتقييمات البشرية أنه أذكى من Llama 70B الأساسي، خاصة في مهام الرياضيات ودقة الحقائق.",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "نموذج مقطر من DeepSeek-R1 يعتمد على Qwen2.5-Math-1.5B. يعمل التعلم المعزز وبيانات البداية الباردة على تحسين أداء الاستدلال، مما يضع معايير جديدة للمهام المتعددة في النماذج المفتوحة.",
"DeepSeek-R1-Distill-Qwen-14B.description": "نماذج DeepSeek-R1-Distill مدربة بدقة من نماذج مفتوحة المصدر باستخدام بيانات عينة تم إنشاؤها بواسطة DeepSeek-R1.",
"DeepSeek-R1-Distill-Qwen-32B.description": "نماذج DeepSeek-R1-Distill مدربة بدقة من نماذج مفتوحة المصدر باستخدام بيانات عينة تم إنشاؤها بواسطة DeepSeek-R1.",
"DeepSeek-R1-Distill-Qwen-7B.description": "نموذج مقطر من DeepSeek-R1 يعتمد على Qwen2.5-Math-7B. يعمل التعلم المعزز وبيانات البداية الباردة على تحسين أداء الاستدلال، مما يضع معايير جديدة للمهام المتعددة في النماذج المفتوحة.",
"DeepSeek-R1.description": "يطبق DeepSeek-R1 التعلم المعزز واسع النطاق في مرحلة ما بعد التدريب، مما يعزز قدرات الاستدلال بشكل كبير باستخدام القليل من البيانات الموسومة. يضاهي نموذج OpenAI o1 في مهام الرياضيات، البرمجة، والاستدلال اللغوي.",
"DeepSeek-V3-1.description": "DeepSeek V3.1 هو نموذج استدلال من الجيل التالي يتميز بتحسينات في الاستدلال المعقد وسلسلة التفكير، مناسب لمهام التحليل العميق.",
"DeepSeek-V3-Fast.description": "المزود: sophnet. DeepSeek V3 Fast هو الإصدار عالي السرعة من DeepSeek V3 0324، بدقة كاملة (غير مضغوطة) مع أداء أقوى في البرمجة والرياضيات واستجابات أسرع.",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast هو الإصدار السريع عالي السرعة من DeepSeek V3.1. وضع تفكير هجين: من خلال قوالب الدردشة، يدعم نموذج واحد كلاً من أوضاع التفكير وغير التفكير. استخدام أدوات أذكى: التحسينات بعد التدريب تعزز أداء المهام التي تتطلب أدوات ووكلاء.",
"DeepSeek-V3.1-Think.description": "وضع التفكير في DeepSeek-V3.1: نموذج استدلال هجين جديد يدعم أوضاع التفكير وغير التفكير، أكثر كفاءة من DeepSeek-R1-0528. التحسينات بعد التدريب تعزز بشكل كبير استخدام الأدوات وأداء المهام التي تتطلب وكلاء.",
"DeepSeek-V3.description": "DeepSeek-V3 هو نموذج MoE تم تطويره بواسطة DeepSeek. يتفوق على نماذج مفتوحة أخرى مثل Qwen2.5-72B وLlama-3.1-405B في العديد من المعايير، ويتنافس مع النماذج المغلقة الرائدة مثل GPT-4o وClaude 3.5 Sonnet.",
"Doubao-lite-128k.description": "يوفر Doubao-lite استجابات فائقة السرعة وقيمة أفضل، مع خيارات مرنة عبر السيناريوهات. يدعم سياق 128K للاستدلال والتدريب الدقيق.",
"Doubao-lite-32k.description": "يوفر Doubao-lite استجابات فائقة السرعة وقيمة أفضل، مع خيارات مرنة عبر السيناريوهات. يدعم سياق 32K للاستدلال والتدريب الدقيق.",
"Doubao-lite-4k.description": "يوفر Doubao-lite استجابات فائقة السرعة وقيمة أفضل، مع خيارات مرنة عبر السيناريوهات. يدعم سياق 4K للاستدلال والتدريب الدقيق.",
"Doubao-pro-128k.description": "أفضل نموذج رئيسي للأداء في المهام المعقدة، يتميز بقوة في الإجابة المرجعية، التلخيص، الإبداع، التصنيف، ولعب الأدوار. يدعم سياق 128K للاستدلال والتدريب الدقيق.",
"Doubao-pro-32k.description": "أفضل نموذج رئيسي للأداء في المهام المعقدة، يتميز بقوة في الإجابة المرجعية، التلخيص، الإبداع، التصنيف، ولعب الأدوار. يدعم سياق 32K للاستدلال والتدريب الدقيق.",
"Doubao-pro-4k.description": "أفضل نموذج رئيسي للأداء في المهام المعقدة، يتميز بقوة في الإجابة المرجعية، التلخيص، الإبداع، التصنيف، ولعب الأدوار. يدعم سياق 4K للاستدلال والتدريب الدقيق.",
"DreamO.description": "DreamO هو نموذج مفتوح المصدر لتخصيص الصور تم تطويره بشكل مشترك من قبل ByteDance وجامعة بكين، يستخدم بنية موحدة لدعم توليد الصور متعددة المهام. يستخدم نمذجة تركيبية فعالة لإنشاء صور مخصصة ومتسقة بدرجة عالية بناءً على الهوية، الموضوع، النمط، الخلفية، وغيرها من الشروط التي يحددها المستخدم.",
"ERNIE-3.5-128K.description": "نموذج اللغة الكبير الرائد من بايدو، مدرّب على مجموعات ضخمة من النصوص الصينية والإنجليزية، يتمتع بقدرات عامة قوية في المحادثة، الإبداع، واستخدام الإضافات؛ يدعم التكامل التلقائي مع إضافة بحث بايدو للحصول على إجابات حديثة.",
"ERNIE-3.5-8K-Preview.description": "نموذج اللغة الكبير الرائد من بايدو، مدرّب على مجموعات ضخمة من النصوص الصينية والإنجليزية، يتمتع بقدرات عامة قوية في المحادثة، الإبداع، واستخدام الإضافات؛ يدعم التكامل التلقائي مع إضافة بحث بايدو للحصول على إجابات حديثة.",
"ERNIE-3.5-8K.description": "نموذج اللغة الكبير الرائد من بايدو، مدرّب على مجموعات ضخمة من النصوص الصينية والإنجليزية، يتمتع بقدرات عامة قوية في المحادثة، الإبداع، واستخدام الإضافات؛ يدعم التكامل التلقائي مع إضافة بحث بايدو للحصول على إجابات حديثة.",
"ERNIE-4.0-8K-Latest.description": "نموذج اللغة الكبير فائق الحجم من بايدو مع تحسينات شاملة مقارنة بـ ERNIE 3.5، مناسب للمهام المعقدة في مختلف المجالات؛ يدعم التكامل مع إضافة بحث بايدو للحصول على إجابات حديثة.",
"ERNIE-4.0-8K-Preview.description": "نموذج اللغة الكبير فائق الحجم من بايدو مع تحسينات شاملة مقارنة بـ ERNIE 3.5، مناسب للمهام المعقدة في مختلف المجالات؛ يدعم التكامل مع إضافة بحث بايدو للحصول على إجابات حديثة.",
"ERNIE-4.0-Turbo-8K-Latest.description": "نموذج اللغة الكبير فائق الحجم من بايدو بأداء عام قوي للمهام المعقدة، مع تكامل إضافة بحث بايدو للحصول على إجابات حديثة. يتفوق على ERNIE 4.0.",
"ERNIE-4.0-Turbo-8K-Preview.description": "نموذج اللغة الكبير فائق الحجم من بايدو بأداء عام قوي للمهام المعقدة، مع تكامل إضافة بحث بايدو للحصول على إجابات حديثة. يتفوق على ERNIE 4.0.",
"ERNIE-Character-8K.description": "نموذج لغة متخصص من بايدو للمجالات العمودية مثل شخصيات الألعاب، خدمة العملاء، وتمثيل الأدوار، يتميز باتساق أوضح في الشخصية، واتباع أقوى للتعليمات، وقدرات استدلال أفضل.",
"ERNIE-Lite-Pro-128K.description": "نموذج لغة خفيف الوزن من بايدو يوازن بين الجودة وأداء الاستدلال، أفضل من ERNIE Lite ومناسب لمسرّعات الحوسبة منخفضة الموارد.",
"ERNIE-Speed-128K.description": "أحدث نموذج عالي الأداء من بايدو (2024) بقدرات عامة قوية، مناسب كأساس للتخصيص لمواقف محددة، ويتميز بأداء استدلال ممتاز.",
"ERNIE-Speed-Pro-128K.description": "أحدث نموذج عالي الأداء من بايدو (2024) بقدرات عامة قوية، أفضل من ERNIE Speed، مناسب كأساس للتخصيص مع أداء استدلال ممتاز.",
"FLUX-1.1-pro.description": "FLUX.1.1 Pro",
"FLUX.1-Kontext-dev.description": "FLUX.1-Kontext-dev هو نموذج توليد وتحرير صور متعدد الوسائط من Black Forest Labs، مبني على بنية Rectified Flow Transformer ويحتوي على 12 مليار معامل. يركز على توليد الصور، إعادة بنائها، تحسينها أو تحريرها ضمن شروط سياقية محددة. يجمع بين قدرات التوليد القابلة للتحكم لنماذج الانتشار ونمذجة السياق باستخدام Transformer، ويدعم مخرجات عالية الجودة لمهام مثل inpainting، outpainting، وإعادة بناء المشاهد البصرية.",
"FLUX.1-Kontext-pro.description": "FLUX.1 Kontext [pro]",
"FLUX.1-dev.description": "FLUX.1-dev هو نموذج لغة متعدد الوسائط مفتوح المصدر من Black Forest Labs، محسن لمهام النص والصورة، ويجمع بين فهم وتوليد النصوص/الصور. مبني على نماذج LLM متقدمة (مثل Mistral-7B)، ويستخدم مشفر رؤية مصمم بعناية وضبط تعليمات متعدد المراحل لتمكين التنسيق متعدد الوسائط والاستدلال المعقد.",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2 (13B) هو نموذج مبتكر لمجالات متنوعة ومهام معقدة.",
"HelloMeme.description": "HelloMeme هي أداة ذكاء اصطناعي لإنشاء الميمات، الصور المتحركة (GIFs)، أو مقاطع الفيديو القصيرة من الصور أو الحركات التي تقدمها. لا تتطلب مهارات رسم أو برمجة—فقط صورة مرجعية—لإنتاج محتوى ممتع وجذاب ومتناسق من حيث الأسلوب.",
"HiDream-E1-Full.description": "HiDream-E1-Full هو نموذج مفتوح المصدر لتحرير الصور متعدد الوسائط من HiDream.ai، يعتمد على بنية Diffusion Transformer المتقدمة وفهم قوي للغة (مدمج LLaMA 3.1-8B-Instruct). يدعم إنشاء الصور باستخدام اللغة الطبيعية، ونقل الأنماط، والتحرير المحلي، وإعادة الطلاء، مع فهم وتنفيذ ممتازين للنصوص والصور.",
"HiDream-I1-Full.description": "HiDream-I1 هو نموذج جديد مفتوح المصدر لإنشاء الصور تم إصداره من قبل HiDream. مع 17 مليار معلمة (Flux يحتوي على 12 مليار)، يمكنه تقديم جودة صور رائدة في الصناعة في ثوانٍ.",
"HunyuanDiT-v1.2-Diffusers-Distilled.description": "hunyuandit-v1.2-distilled هو نموذج تحويل نص إلى صورة خفيف الوزن، محسن عبر التقطير لتوليد صور عالية الجودة بسرعة، ومناسب بشكل خاص للبيئات منخفضة الموارد والتوليد في الوقت الحقيقي.",
"InstantCharacter.description": "InstantCharacter هو نموذج توليد شخصيات مخصص بدون ضبط من Tencent AI لعام 2025، يهدف إلى توليد شخصيات عالية الدقة ومتسقة عبر السيناريوهات. يمكنه نمذجة شخصية من صورة مرجعية واحدة ونقلها بمرونة عبر الأساليب، الحركات، والخلفيات.",
"InternVL2-8B.description": "InternVL2-8B هو نموذج رؤية-لغة قوي يدعم معالجة الصور والنصوص متعددة الوسائط، يتعرف بدقة على محتوى الصور ويولد أوصافًا أو إجابات ذات صلة.",
"InternVL2.5-26B.description": "InternVL2.5-26B هو نموذج رؤية-لغة قوي يدعم معالجة الصور والنصوص متعددة الوسائط، يتعرف بدقة على محتوى الصور ويولد أوصافًا أو إجابات ذات صلة.",
"Kolors.description": "Kolors هو نموذج تحويل نص إلى صورة طوره فريق Kolors في Kuaishou. مدرب على مليارات المعاملات، يتميز بجودة بصرية عالية، فهم دلالي قوي للغة الصينية، وقدرات متميزة في عرض النصوص.",
"Kwai-Kolors/Kolors.description": "Kolors هو نموذج تحويل نص إلى صورة واسع النطاق من فريق Kolors في Kuaishou. مدرب على مليارات أزواج النصوص والصور، يتفوق في الجودة البصرية، الدقة الدلالية المعقدة، وعرض النصوص الصينية/الإنجليزية، مع فهم وتوليد قويين للمحتوى الصيني.",
"Kwaipilot/KAT-Dev.description": "KAT-Dev (32B) هو نموذج مفتوح المصدر لمهام هندسة البرمجيات. يحقق معدل حل 62.4% على SWE-Bench Verified، ويحتل المرتبة الخامسة بين النماذج المفتوحة. تم تحسينه عبر التدريب الوسيط، SFT، وRL لإكمال الشيفرة، إصلاح الأخطاء، ومراجعة الشيفرة.",
"Llama-3.2-11B-Vision-Instruct.description": "استدلال بصري قوي على الصور عالية الدقة، مناسب لتطبيقات الفهم البصري.",
"Llama-3.2-90B-Vision-Instruct\t.description": "استدلال بصري متقدم لتطبيقات الفهم البصري المعتمدة على الوكلاء.",
"LongCat-Flash-Chat.description": "تم ترقية نموذج LongCat-Flash-Chat إلى إصدار جديد. يتضمن هذا التحديث تحسينات في قدرات النموذج فقط؛ يظل اسم النموذج وطريقة استدعاء API دون تغيير. بناءً على ميزاته المميزة مثل \"الكفاءة القصوى\" و\"الاستجابة السريعة للغاية\"، يعزز الإصدار الجديد فهم السياق وأداء البرمجة الواقعية: قدرات البرمجة المحسنة بشكل كبير: تم تحسين النموذج بشكل عميق لسيناريوهات المطورين، مما يوفر تحسينات كبيرة في مهام إنشاء الأكواد وتصحيح الأخطاء وشرحها. يُشجع المطورون بشدة على تقييم هذه التحسينات ومقارنتها. دعم سياق طويل للغاية 256K: تضاعف نافذة السياق من الجيل السابق (128K) إلى 256K، مما يتيح معالجة فعالة للوثائق الضخمة والمهام ذات التسلسل الطويل. تحسين شامل للأداء متعدد اللغات: يوفر دعمًا قويًا لتسع لغات، بما في ذلك الإسبانية والفرنسية والعربية والبرتغالية والروسية والإندونيسية. قدرات وكيل أكثر قوة: يظهر النموذج كفاءة أكبر في استدعاء الأدوات المعقدة وتنفيذ المهام متعددة الخطوات.",
"LongCat-Flash-Lite.description": "تم إصدار نموذج LongCat-Flash-Lite رسميًا. يعتمد على بنية فعالة من نوع Mixture-of-Experts (MoE)، مع إجمالي 68.5 مليار معلمة وحوالي 3 مليارات معلمة مفعلة. من خلال استخدام جدول تضمين N-gram، يحقق استخدامًا فعالًا للغاية للمعلمات، وتم تحسينه بشكل عميق لكفاءة الاستنتاج وسيناريوهات التطبيقات المحددة. مقارنةً بالنماذج ذات الحجم المماثل، فإن ميزاته الأساسية هي كما يلي: كفاءة استنتاج ممتازة: من خلال الاستفادة من جدول تضمين N-gram لتخفيف عنق الزجاجة في الإدخال والإخراج في بنية MoE، جنبًا إلى جنب مع آليات التخزين المؤقت المخصصة وتحسينات على مستوى النواة، يقلل بشكل كبير من زمن الاستنتاج ويحسن الكفاءة العامة. أداء قوي في الوكيل والبرمجة: يظهر قدرات تنافسية عالية في استدعاء الأدوات ومهام تطوير البرمجيات، مما يوفر أداءً استثنائيًا بالنسبة لحجم النموذج.",
"LongCat-Flash-Thinking-2601.description": "تم إصدار نموذج LongCat-Flash-Thinking-2601 رسميًا. كنموذج استنتاج مطور يعتمد على بنية Mixture-of-Experts (MoE)، يتميز بإجمالي 560 مليار معلمة. مع الحفاظ على تنافسية قوية عبر معايير الاستنتاج التقليدية، يعزز بشكل منهجي قدرات الاستنتاج على مستوى الوكيل من خلال التعلم المعزز متعدد البيئات واسع النطاق. مقارنةً بنموذج LongCat-Flash-Thinking، فإن الترقيات الرئيسية هي كما يلي: قوة استثنائية في البيئات المليئة بالضوضاء: من خلال تدريب منهجي بأسلوب المناهج يستهدف الضوضاء وعدم اليقين في البيئات الواقعية، يظهر النموذج أداءً ممتازًا في استدعاء أدوات الوكيل، البحث القائم على الوكيل، والاستنتاج المدمج بالأدوات، مع تحسين كبير في التعميم. قدرات وكيل قوية: من خلال إنشاء رسم بياني يعتمد على أكثر من 60 أداة، وتوسيع التدريب عبر بيئات متعددة واستكشاف واسع النطاق، يحسن النموذج بشكل ملحوظ قدرته على التعميم إلى سيناريوهات واقعية معقدة وخارج التوزيع. وضع التفكير العميق المتقدم: يوسع نطاق الاستنتاج عبر الاستنتاج المتوازي ويعمق القدرة التحليلية من خلال آليات التلخيص والتجريد المدفوعة بالتغذية الراجعة، مما يعالج المشكلات الصعبة للغاية بشكل فعال.",
"LongCat-Flash-Thinking.description": "تم إصدار LongCat-Flash-Thinking رسميًا وتم فتح مصدره في نفس الوقت. إنه نموذج استنتاج عميق يمكن استخدامه للمحادثات المجانية داخل LongCat Chat، أو الوصول إليه عبر API بتحديد model=LongCat-Flash-Thinking.",
"Meta-Llama-3-3-70B-Instruct.description": "Llama 3.3 70B هو نموذج Transformer متعدد الاستخدامات لمهام المحادثة والتوليد.",
"Meta-Llama-3.1-405B-Instruct.description": "نموذج Llama 3.1 مضبوط على التعليمات، محسن للمحادثة متعددة اللغات، ويؤدي بقوة في معايير الصناعة الشائعة بين النماذج المفتوحة والمغلقة.",
"Meta-Llama-3.1-70B-Instruct.description": "نموذج Llama 3.1 مضبوط على التعليمات، محسن للمحادثة متعددة اللغات، ويؤدي بقوة في معايير الصناعة الشائعة بين النماذج المفتوحة والمغلقة.",
"Meta-Llama-3.1-8B-Instruct.description": "نموذج Llama 3.1 مضبوط على التعليمات، محسن للمحادثة متعددة اللغات، ويؤدي بقوة في معايير الصناعة الشائعة بين النماذج المفتوحة والمغلقة.",
"Meta-Llama-3.2-1B-Instruct.description": "نموذج لغة صغير متطور يتمتع بفهم لغوي قوي، استدلال ممتاز، وتوليد نصوص عالي الجودة.",
"Meta-Llama-3.2-3B-Instruct.description": "نموذج لغة صغير متطور يتمتع بفهم لغوي قوي، استدلال ممتاز، وتوليد نصوص عالي الجودة.",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 هو النموذج مفتوح المصدر متعدد اللغات الأكثر تقدمًا من Llama، يقدم أداءً قريبًا من نموذج 405B بتكلفة منخفضة جدًا. يعتمد على بنية Transformer ومحسن باستخدام SFT وRLHF لتحقيق الفائدة والسلامة. النسخة المضبوطة على التعليمات محسنّة للمحادثة متعددة اللغات وتتفوّق على العديد من النماذج المفتوحة والمغلقة في معايير الصناعة. تاريخ التحديث المعرفي: ديسمبر 2023.",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick هو نموذج MoE كبير مع تفعيل خبراء فعال لأداء استدلال قوي.",
"MiniMax-M1.description": "نموذج استدلال داخلي جديد بسلسلة تفكير تصل إلى 80K ومدخلات حتى 1M، يقدم أداءً مماثلاً لأفضل النماذج العالمية.",
"MiniMax-M2-Stable.description": "مصمم لتدفقات العمل البرمجية والوكلاء بكفاءة عالية، مع قدرة تزامن أعلى للاستخدام التجاري.",
"MiniMax-M2.1-Lightning.description": "قدرات برمجة متعددة اللغات قوية وتجربة برمجة مطورة بالكامل. أسرع وأكثر كفاءة.",
"MiniMax-M2.1-highspeed.description": "قدرات برمجة متعددة اللغات قوية مع استنتاج أسرع وأكثر كفاءة.",
"MiniMax-M2.1.description": "MiniMax-M2.1 هو نموذج مفتوح المصدر رائد من MiniMax، يركز على حل المهام الواقعية المعقدة. يتميز بقدرات برمجة متعددة اللغات والقدرة على أداء المهام المعقدة كوكلاء ذكي.",
"MiniMax-M2.5-Lightning.description": "M2.5 Lightning: نفس الأداء، أسرع وأكثر رشاقة (تقريباً 100 tps).",
"MiniMax-M2.5-highspeed.description": "نفس أداء M2.5 مع استنتاج أسرع بشكل ملحوظ.",
"MiniMax-M2.5.description": "أداء من الدرجة الأولى وفعالية تكلفة قصوى، يتعامل بسهولة مع المهام المعقدة (تقريباً 60 tps).",
"MiniMax-M2.7-highspeed.description": "نفس أداء M2.7 مع استدلال أسرع بشكل ملحوظ (~100 tps).",
"MiniMax-M2.7.description": "أول نموذج ذاتي التطور بأداء عالي المستوى في البرمجة والوكالة (~60 tps).",
"MiniMax-M2.description": "مصمم خصيصًا للبرمجة الفعالة وتدفقات عمل الوكلاء.",
"MiniMax-Text-01.description": "MiniMax-01 يقدم انتباهًا خطيًا واسع النطاق يتجاوز Transformers التقليدية، مع 456 مليار معامل و45.9 مليار مفعّلة في كل تمرير. يحقق أداءً من الدرجة الأولى ويدعم حتى 4 ملايين رمز سياقي (32× GPT-4o، 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 هو نموذج استدلال واسع النطاق بوزن مفتوح يستخدم انتباهًا هجينًا، يحتوي على 456 مليار معامل إجماليًا و~45.9 مليار مفعّلة لكل رمز. يدعم سياقًا يصل إلى 1M ويستخدم Flash Attention لتقليل FLOPs بنسبة 75% عند توليد 100K رمز مقارنة بـ DeepSeek R1. بهيكل MoE وتدريب RL هجين، يحقق أداءً رائدًا في الاستدلال طويل المدخلات ومهام هندسة البرمجيات الواقعية.",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 يعيد تعريف كفاءة الوكلاء. هو نموذج MoE مدمج وسريع وفعال من حيث التكلفة يحتوي على 230 مليار معامل إجماليًا و10 مليار مفعّلة، مصمم لمهام البرمجة والوكلاء من الدرجة الأولى مع الحفاظ على ذكاء عام قوي. مع 10 مليار معامل مفعّلة فقط، ينافس نماذج أكبر بكثير، مما يجعله مثاليًا للتطبيقات عالية الكفاءة.",
"Moonshot-Kimi-K2-Instruct.description": "يحتوي على 1 تريليون معامل إجماليًا و32 مليار مفعّلة. من بين النماذج غير المفكرة، يتصدر في المعرفة المتقدمة، الرياضيات، والبرمجة، وأقوى في مهام الوكلاء العامة. محسن لأعباء عمل الوكلاء، يمكنه اتخاذ إجراءات وليس فقط الإجابة على الأسئلة. الأفضل للمحادثات العامة الارتجالية وتجارب الوكلاء كنموذج يعمل بردود فعل دون تفكير طويل.",
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO.description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) هو نموذج تعليمات عالي الدقة للحسابات المعقدة.",
"OmniConsistency.description": "تحسّن OmniConsistency التناسق الأسلوبي والتعميم في مهام تحويل الصور إلى صور من خلال إدخال محولات الانتشار واسعة النطاق (DiTs) وبيانات مزدوجة النمط، مما يمنع تدهور الأسلوب.",
"PaddlePaddle/PaddleOCR-VL-1.5.description": "PaddleOCR-VL-1.5 هو إصدار مطور من سلسلة PaddleOCR-VL، يحقق دقة بنسبة 94.5٪ على معيار OmniDocBench v1.5 لتحليل المستندات، متفوقًا على النماذج العامة والمتخصصة. يدعم تحديد مواقع العناصر داخل المستندات باستخدام مربعات غير منتظمة، مما يجعله فعالًا مع الصور الممسوحة ضوئيًا أو المائلة أو الملتقطة من الشاشات.",
"Phi-3-medium-128k-instruct.description": "نفس نموذج Phi-3-medium ولكن مع نافذة سياق أكبر لدعم استرجاع المعرفة (RAG) أو التعليمات القليلة.",
"Phi-3-medium-4k-instruct.description": "نموذج يحتوي على 14 مليار معلمة بجودة أعلى من Phi-3-mini، يركز على البيانات عالية الجودة التي تتطلب استدلالًا مكثفًا.",
"Phi-3-mini-128k-instruct.description": "نفس نموذج Phi-3-mini ولكن مع نافذة سياق أكبر لدعم استرجاع المعرفة (RAG) أو التعليمات القليلة.",
"Phi-3-mini-4k-instruct.description": "أصغر عضو في عائلة Phi-3، مُحسّن للجودة وانخفاض زمن الاستجابة.",
"Phi-3-small-128k-instruct.description": "نفس نموذج Phi-3-small ولكن مع نافذة سياق أكبر لدعم استرجاع المعرفة (RAG) أو التعليمات القليلة.",
"Phi-3-small-8k-instruct.description": "نموذج يحتوي على 7 مليارات معلمة بجودة أعلى من Phi-3-mini، يركز على البيانات عالية الجودة التي تتطلب استدلالًا مكثفًا.",
"Phi-3.5-mini-instruct.description": "إصدار محدث من نموذج Phi-3-mini.",
"Phi-3.5-vision-instrust.description": "إصدار محدث من نموذج Phi-3-vision.",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 هو نموذج لغوي مفتوح المصدر ومتقدم، مُحسَّن لقدرات الوكلاء، ويتفوق في البرمجة، واستخدام الأدوات، واتباع التعليمات، والتخطيط طويل الأمد. يدعم النموذج تطوير البرمجيات متعددة اللغات وتنفيذ سير العمل المعقد متعدد الخطوات، وحقق نتيجة 74.0 على SWE-bench Verified، متفوقًا على Claude Sonnet 4.5 في السيناريوهات متعددة اللغات.",
"Pro/MiniMaxAI/MiniMax-M2.5.description": "MiniMax-M2.5 هو أحدث نموذج لغة كبير تم تطويره بواسطة MiniMax، تم تدريبه من خلال التعلم المعزز واسع النطاق عبر مئات الآلاف من البيئات المعقدة في العالم الحقيقي. يتميز بهيكل MoE مع 229 مليار معلمة، ويحقق أداءً رائدًا في الصناعة في مهام مثل البرمجة، واستدعاء أدوات الوكيل، والبحث، والسيناريوهات المكتبية.",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct هو نموذج لغوي كبير (LLM) موجه للتعليمات ضمن سلسلة Qwen2. يستخدم بنية Transformer مع SwiGLU، وانحياز QKV في الانتباه، وانتباه الاستعلامات المجمعة، ويعالج مدخلات كبيرة. يتميز بأداء قوي في فهم اللغة، التوليد، المهام متعددة اللغات، البرمجة، الرياضيات، والاستدلال، متفوقًا على معظم النماذج المفتوحة ومنافسًا للنماذج التجارية. يتفوق على Qwen1.5-7B-Chat في العديد من المعايير.",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct هو جزء من أحدث سلسلة نماذج لغوية كبيرة من Alibaba Cloud. يقدم هذا النموذج ذو 7 مليارات معلمة تحسينات ملحوظة في البرمجة والرياضيات، ويدعم أكثر من 29 لغة، ويعزز اتباع التعليمات، وفهم البيانات المنظمة، وإنتاج المخرجات المنظمة (خصوصًا JSON).",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct هو أحدث نموذج لغوي كبير من Alibaba Cloud يركز على البرمجة. مبني على Qwen2.5 ومدرب على 5.5 تريليون رمز، يعزز بشكل كبير توليد الشيفرة، الاستدلال، والإصلاح، مع الحفاظ على القوة في الرياضيات والقدرات العامة، مما يوفر أساسًا قويًا لوكلاء البرمجة.",
"Pro/Qwen/Qwen2.5-VL-7B-Instruct.description": "Qwen2.5-VL هو نموذج رؤية-لغة جديد من Qwen يتمتع بفهم بصري قوي. يحلل النصوص، الرسوم البيانية، والتخطيطات في الصور، ويفهم مقاطع الفيديو الطويلة والأحداث، ويدعم الاستدلال واستخدام الأدوات، وتحديد الكائنات عبر تنسيقات متعددة، وإنتاج مخرجات منظمة. يعزز فهم الفيديو من خلال تحسينات في الدقة الديناميكية ومعدل الإطارات، ويزيد من كفاءة مشفر الرؤية.",
"Pro/THUDM/GLM-4.1V-9B-Thinking.description": "GLM-4.1V-9B-Thinking هو نموذج رؤية-لغة مفتوح المصدر من Zhipu AI ومختبر KEG في جامعة تسينغهوا، مصمم للإدراك متعدد الوسائط المعقد. مبني على GLM-4-9B-0414، ويضيف استدلال سلسلة الأفكار والتعلم المعزز (RL) لتحسين الاستدلال عبر الوسائط والاستقرار بشكل كبير.",
"Pro/THUDM/glm-4-9b-chat.description": "GLM-4-9B-Chat هو النموذج المفتوح المصدر من سلسلة GLM-4 من Zhipu AI. يتميز بأداء قوي في الدلالات، الرياضيات، الاستدلال، البرمجة، والمعرفة. بالإضافة إلى المحادثة متعددة الأدوار، يدعم تصفح الويب، تنفيذ الشيفرة، استدعاء الأدوات المخصصة، والاستدلال على النصوص الطويلة. يدعم 26 لغة (بما في ذلك الصينية، الإنجليزية، اليابانية، الكورية، والألمانية). يحقق نتائج جيدة في AlignBench-v2، MT-Bench، MMLU، وC-Eval، ويدعم سياقًا يصل إلى 128 ألف رمز للاستخدام الأكاديمي والتجاري.",
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "تم تقطير DeepSeek-R1-Distill-Qwen-7B من Qwen2.5-Math-7B وتم تحسينه باستخدام 800 ألف عينة مختارة من DeepSeek-R1. يتميز بأداء قوي، حيث يحقق 92.8٪ في MATH-500، و55.5٪ في AIME 2024، وتصنيف 1189 في CodeForces لنموذج بحجم 7 مليارات معلمة.",
"Pro/deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 هو نموذج استدلال مدفوع بالتعلم المعزز يقلل التكرار ويحسن قابلية القراءة. يستخدم بيانات بداية باردة قبل التعلم المعزز لتعزيز الاستدلال، ويضاهي OpenAI-o1 في مهام الرياضيات، البرمجة، والاستدلال، ويحقق نتائج أفضل من خلال تدريب دقيق.",
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus هو إصدار محدث من نموذج V3.1، مصمم كنموذج وكيل هجين. يعالج المشكلات التي أبلغ عنها المستخدمون، ويحسن الاستقرار، وتناسق اللغة، ويقلل من الخلط بين الصينية/الإنجليزية والرموز غير الطبيعية. يدمج أوضاع التفكير وغير التفكير مع قوالب محادثة للتبديل المرن. كما يعزز أداء وكلاء الشيفرة والبحث لاستخدام أدوات أكثر موثوقية ومهام متعددة الخطوات.",
"Pro/deepseek-ai/DeepSeek-V3.2.description": "DeepSeek-V3.2 هو نموذج يجمع بين الكفاءة الحسابية العالية وأداء التفكير والوكيل الممتاز. يعتمد نهجه على ثلاثة اختراقات تكنولوجية رئيسية: DeepSeek Sparse Attention (DSA)، وهي آلية انتباه فعالة تقلل بشكل كبير من التعقيد الحسابي مع الحفاظ على أداء النموذج، ومُحسنة خصيصًا للسيناريوهات ذات السياق الطويل؛ إطار عمل للتعلم المعزز القابل للتوسع يمكن من خلاله أن ينافس أداء النموذج GPT-5، مع نسخته عالية الحوسبة التي تضاهي Gemini-3.0-Pro في قدرات التفكير؛ وخط أنابيب واسع النطاق لتوليف مهام الوكيل يهدف إلى دمج قدرات التفكير في سيناريوهات استخدام الأدوات، مما يحسن اتباع التعليمات والتعميم في البيئات التفاعلية المعقدة. حقق النموذج أداءً متميزًا في الأولمبياد الدولي للرياضيات (IMO) وأولمبياد المعلوماتية الدولي (IOI) لعام 2025.",
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 هو نموذج MoE يحتوي على 671 مليار معلمة، يستخدم MLA وDeepSeekMoE مع توازن تحميل خالٍ من الفقدان لتحقيق كفاءة في الاستدلال والتدريب. تم تدريبه مسبقًا على 14.8 تريليون رمز عالي الجودة وتم تحسينه باستخدام SFT وRL، متفوقًا على النماذج المفتوحة الأخرى ويقترب من النماذج المغلقة الرائدة.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج MoE من الدرجة الأولى يحتوي على إجمالي 1 تريليون و32 مليار معلمة نشطة. من أبرز ميزاته الذكاء البرمجي القوي مع تحسينات كبيرة في المعايير ومهام الوكلاء الواقعية، بالإضافة إلى تحسينات في جمالية واجهة الشيفرة وسهولة الاستخدام.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo هو إصدار Turbo محسّن لسرعة الاستدلال والإنتاجية مع الحفاظ على قدرات التفكير متعدد الخطوات واستخدام الأدوات في K2 Thinking. إنه نموذج MoE يحتوي على حوالي 1 تريليون معلمة إجمالية، ويدعم سياقًا أصليًا بطول 256 ألف رمز، واستدعاء أدوات واسع النطاق ومستقر لسيناريوهات الإنتاج التي تتطلب زمن استجابة وتزامنًا صارمين.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 هو نموذج وكيل متعدد الوسائط مفتوح المصدر، مبني على Kimi-K2-Base، ومدرب على حوالي 1.5 تريليون رمز من النصوص والرؤية. يستخدم بنية MoE بعدد إجمالي 1 تريليون مع 32 مليار معلمات نشطة، ويدعم نافذة سياق تصل إلى 256 ألف، مما يدمج الفهم البصري واللغوي بسلاسة.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 هو النموذج الرائد من الجيل الجديد لشركة Zhipu، يحتوي على 355 مليار معلمة إجمالية و32 مليار معلمة نشطة، وقد تم تطويره بالكامل في مجالات الحوار العام، والاستدلال، وقدرات الوكلاء. يعزز GLM-4.7 التفكير المتداخل ويقدم مفاهيم التفكير المحفوظ والتفكير على مستوى الدور.",
"Pro/zai-org/glm-5.description": "GLM-5 هو نموذج اللغة الكبير من الجيل التالي من Zhipu، يركز على هندسة الأنظمة المعقدة ومهام الوكيل طويلة المدة. تم توسيع معلمات النموذج إلى 744 مليار (40 مليار نشطة) وتدمج DeepSeek Sparse Attention.",
"QwQ-32B-Preview.description": "Qwen QwQ هو نموذج بحث تجريبي يركز على تحسين الاستدلال.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview هو نموذج بحث من Qwen يركز على الاستدلال البصري، يتميز بفهم المشاهد المعقدة وحل مسائل الرياضيات البصرية.",
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ هو نموذج بحث تجريبي يركز على تحسين استدلال الذكاء الاصطناعي.",
"Qwen/QwQ-32B.description": "QwQ هو نموذج استدلال ضمن عائلة Qwen. مقارنة بالنماذج التقليدية الموجهة للتعليمات، يضيف QwQ قدرات تفكير واستدلال تعزز الأداء بشكل كبير في المهام الصعبة. QwQ-32B هو نموذج استدلال متوسط الحجم ينافس نماذج استدلال رائدة مثل DeepSeek-R1 وo1-mini. يستخدم RoPE، SwiGLU، RMSNorm، وانحياز QKV في الانتباه، مع 64 طبقة و40 رأس انتباه (8 KV في GQA).",
"Qwen/Qwen-Image-Edit-2509.description": "Qwen-Image-Edit-2509 هو أحدث إصدار لتحرير الصور من فريق Qwen. مبني على نموذج Qwen-Image بحجم 20 مليار معلمة، ويمتد من قدرات عرض النصوص القوية إلى تحرير الصور بدقة. يستخدم بنية تحكم مزدوجة، حيث تُرسل المدخلات إلى Qwen2.5-VL للتحكم الدلالي وإلى مشفر VAE للتحكم في المظهر، مما يتيح تحريرًا على مستوى الدلالة والمظهر. يدعم التعديلات المحلية (إضافة/إزالة/تعديل) والتعديلات الدلالية المتقدمة مثل إنشاء الملكية الفكرية ونقل الأسلوب مع الحفاظ على المعنى. يحقق نتائج رائدة في العديد من المعايير.",
"Qwen/Qwen-Image.description": "Qwen-Image هو نموذج أساسي لتوليد الصور يحتوي على 20 مليار معلمة من فريق Qwen. يحقق تقدمًا كبيرًا في عرض النصوص المعقدة وتحرير الصور بدقة، خاصة للنصوص الصينية/الإنجليزية عالية الدقة. يدعم تخطيطات متعددة الأسطر والفقرة مع الحفاظ على تناسق الطباعة. بالإضافة إلى عرض النصوص، يدعم مجموعة واسعة من الأساليب من الواقعية إلى الأنمي، والتحرير المتقدم مثل نقل الأسلوب، إضافة/إزالة الكائنات، تحسين التفاصيل، تحرير النصوص، والتحكم في الوضعية، ويهدف إلى أن يكون نموذجًا أساسيًا شاملاً للإبداع البصري.",
"Qwen/Qwen2-72B-Instruct.description": "يقدم Qwen 2 Instruct (72B) استجابة دقيقة للتعليمات، مما يجعله مناسبًا لأعباء العمل المؤسسية.",
"Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct هو نموذج بحجم 7B مضبوط على التعليمات ضمن سلسلة Qwen2، يستخدم تقنيات Transformer وSwiGLU وQKV bias والانتباه المجمع. يتميز بقدرته على معالجة مدخلات كبيرة وأداء قوي في مجالات الفهم، التوليد، التعدد اللغوي، البرمجة، الرياضيات، والاستدلال، متفوقًا على معظم النماذج المفتوحة وسابقه Qwen1.5-7B-Chat في عدة تقييمات.",
"Qwen/Qwen2-VL-72B-Instruct.description": "Qwen2-VL هو أحدث نموذج من سلسلة Qwen-VL، يحقق نتائج رائدة في اختبارات الرؤية مثل MathVista وDocVQA وRealWorldQA وMTVQA. يمكنه فهم مقاطع فيديو تتجاوز 20 دقيقة لأغراض الأسئلة والأجوبة، الحوار، وإنشاء المحتوى. كما يدعم الاستدلال المعقد واتخاذ القرار، ويتكامل مع الأجهزة/الروبوتات لتنفيذ إجراءات تعتمد على الرؤية. بالإضافة إلى الإنجليزية والصينية، يمكنه قراءة نصوص بلغات متعددة تشمل معظم اللغات الأوروبية، اليابانية، الكورية، العربية، والفيتنامية.",
"Qwen/Qwen2.5-14B-Instruct.description": "Qwen2.5-14B-Instruct هو جزء من أحدث سلسلة نماذج LLM من Alibaba Cloud. يوفر هذا النموذج بحجم 14B تحسينات ملحوظة في البرمجة والرياضيات، ويدعم أكثر من 29 لغة، ويعزز اتباع التعليمات وفهم البيانات المنظمة وإنتاج مخرجات منظمة (خصوصًا بصيغة JSON).",
"Qwen/Qwen2.5-32B-Instruct.description": "Qwen2.5-32B-Instruct هو جزء من أحدث سلسلة نماذج LLM من Alibaba Cloud. يوفر هذا النموذج بحجم 32B تحسينات ملحوظة في البرمجة والرياضيات، ويدعم أكثر من 29 لغة، ويعزز اتباع التعليمات وفهم البيانات المنظمة وإنتاج مخرجات منظمة (خصوصًا بصيغة JSON).",
"Qwen/Qwen2.5-72B-Instruct-128K.description": "Qwen2.5-72B-Instruct هو جزء من أحدث سلسلة نماذج LLM من Alibaba Cloud. يوفر هذا النموذج بحجم 72B تحسينات في البرمجة والرياضيات، ويدعم مدخلات تصل إلى 128K ومخرجات تتجاوز 8K، ويشمل دعمًا لأكثر من 29 لغة، مع تحسينات في اتباع التعليمات وإنتاج مخرجات منظمة (خصوصًا بصيغة JSON).",
"Qwen/Qwen2.5-72B-Instruct-Turbo.description": "Qwen2.5 هو عائلة جديدة من نماذج LLM مصممة خصيصًا لمهام تعتمد على التعليمات.",
"Qwen/Qwen2.5-72B-Instruct.description": "Qwen2.5-72B-Instruct هو جزء من أحدث سلسلة نماذج LLM من Alibaba Cloud. يوفر هذا النموذج بحجم 72B تحسينات ملحوظة في البرمجة والرياضيات، ويدعم أكثر من 29 لغة، ويعزز اتباع التعليمات وفهم البيانات المنظمة وإنتاج مخرجات منظمة (خصوصًا بصيغة JSON).",
"Qwen/Qwen2.5-7B-Instruct-Turbo.description": "Qwen2.5 هو عائلة جديدة من نماذج LLM مصممة خصيصًا لمهام تعتمد على التعليمات.",
"Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct هو جزء من أحدث سلسلة نماذج LLM من Alibaba Cloud. يوفر هذا النموذج بحجم 7B تحسينات ملحوظة في البرمجة والرياضيات، ويدعم أكثر من 29 لغة، ويعزز اتباع التعليمات وفهم البيانات المنظمة وإنتاج مخرجات منظمة (خصوصًا بصيغة JSON).",
"Qwen/Qwen2.5-Coder-32B-Instruct.description": "Qwen2.5 Coder 32B Instruct هو أحدث نموذج LLM من Alibaba Cloud يركز على البرمجة. مبني على Qwen2.5 ومدرب على 5.5 تريليون رمز، يعزز بشكل كبير توليد الشيفرة، الاستدلال، وتصحيح الأخطاء، مع الحفاظ على قدرات قوية في الرياضيات والمهام العامة، مما يجعله أساسًا قويًا لوكلاء البرمجة.",
"Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct هو أحدث نموذج LLM من Alibaba Cloud يركز على البرمجة. مبني على Qwen2.5 ومدرب على 5.5 تريليون رمز، يعزز بشكل كبير توليد الشيفرة، الاستدلال، وتصحيح الأخطاء، مع الحفاظ على قدرات قوية في الرياضيات والمهام العامة، مما يجعله أساسًا متينًا لوكلاء البرمجة.",
"Qwen/Qwen2.5-VL-32B-Instruct.description": "Qwen2.5-VL-32B-Instruct هو نموذج متعدد الوسائط من فريق Qwen. يتعرف على الكائنات الشائعة ويحلل النصوص، الرسوم البيانية، الأيقونات، الرسومات، والتصاميم. كوكل بصري، يمكنه الاستدلال والتحكم الديناميكي في الأدوات، بما في ذلك استخدام الحاسوب والهاتف. يحدد الكائنات بدقة وينتج مخرجات منظمة للفواتير والجداول. مقارنة بـ Qwen2-VL، يوفر تحسينات إضافية في الرياضيات وحل المشكلات، مع استجابات مفضلة أكثر من قبل البشر.",
"Qwen/Qwen2.5-VL-72B-Instruct.description": "Qwen2.5-VL هو نموذج رؤية-لغة في سلسلة Qwen2.5 مع ترقيات رئيسية: فهم بصري أقوى للكائنات، النصوص، الرسوم البيانية، والتصاميم؛ الاستدلال كوكل بصري باستخدام أدوات ديناميكية؛ فهم مقاطع فيديو تتجاوز الساعة والتقاط الأحداث الرئيسية؛ تحديد دقيق للكائنات باستخدام مربعات أو نقاط؛ ومخرجات منظمة للبيانات الممسوحة مثل الفواتير والجداول.",
"Qwen/Qwen3-14B.description": "Qwen3 هو الجيل التالي من نموذج Tongyi Qwen، يحقق تقدمًا كبيرًا في الاستدلال، القدرات العامة، قدرات الوكلاء، والأداء متعدد اللغات، ويدعم التبديل بين أوضاع التفكير.",
"Qwen/Qwen3-235B-A22B-Instruct-2507.description": "Qwen3-235B-A22B-Instruct-2507 هو النموذج الرائد من نوع MoE في سلسلة Qwen3، يحتوي على 235 مليار معلمة إجمالية و22 مليار نشطة. هو إصدار غير مفكر محدث يركز على تحسين اتباع التعليمات، الاستدلال المنطقي، فهم النصوص، الرياضيات، العلوم، البرمجة، واستخدام الأدوات. كما يوسع المعرفة متعددة اللغات ويعزز التوافق مع تفضيلات المستخدم في المهام المفتوحة الذاتية.",
"Qwen/Qwen3-235B-A22B-Thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507 هو نموذج Qwen3 مخصص للاستدلال المعقد. يستخدم بنية MoE مع 235 مليار معلمة إجمالية وحوالي 22 مليار نشطة لكل رمز لتعزيز الكفاءة. كنموذج تفكير مخصص، يظهر تقدمًا كبيرًا في المنطق، الرياضيات، العلوم، البرمجة، والمعايير الأكاديمية، محققًا أداءً رائدًا في التفكير المفتوح. كما يحسن اتباع التعليمات، استخدام الأدوات، وتوليد النصوص، ويدعم سياقًا يصل إلى 256K للاستدلال العميق والوثائق الطويلة.",
"Qwen/Qwen3-235B-A22B.description": "Qwen3 235B A22B هو نموذج Qwen3 واسع النطاق يقدم قدرات ذكاء اصطناعي من الدرجة الأولى.",
"Qwen/Qwen3-30B-A3B-Instruct-2507.description": "Qwen3-30B-A3B-Instruct-2507 هو الإصدار غير المفكر المحدث من Qwen3-30B-A3B. هو نموذج MoE يحتوي على 30.5 مليار معلمة إجمالية و3.3 مليار نشطة. يعزز بشكل كبير اتباع التعليمات، الاستدلال المنطقي، فهم النصوص، الرياضيات، العلوم، البرمجة، واستخدام الأدوات، ويوسع المعرفة متعددة اللغات، ويتماشى بشكل أفضل مع تفضيلات المستخدم في المهام المفتوحة الذاتية. يدعم سياقًا يصل إلى 256K. هذا النموذج غير مفكر فقط ولن ينتج علامات `<think></think>`.",
"Qwen/Qwen3-30B-A3B-Thinking-2507.description": "Qwen3-30B-A3B-Thinking-2507 هو أحدث نموذج تفكير في سلسلة Qwen3. هو نموذج MoE يحتوي على 30.5 مليار معلمة إجمالية و3.3 مليار نشطة، يركز على المهام المعقدة. يظهر تقدمًا كبيرًا في المنطق، الرياضيات، العلوم، البرمجة، والمعايير الأكاديمية، ويحسن اتباع التعليمات، استخدام الأدوات، توليد النصوص، والتوافق مع التفضيلات. يدعم سياقًا يصل إلى 256K ويمكن توسيعه إلى مليون رمز. هذا الإصدار مصمم لوضع التفكير مع استدلال تفصيلي خطوة بخطوة وقدرات وكيل قوية.",
"Qwen/Qwen3-32B.description": "Qwen3 هو الجيل التالي من نموذج Tongyi Qwen، يحقق تقدمًا كبيرًا في الاستدلال، القدرات العامة، قدرات الوكلاء، والأداء متعدد اللغات، ويدعم التبديل بين أوضاع التفكير.",
"Qwen/Qwen3-8B.description": "Qwen3 هو الجيل التالي من نموذج Tongyi Qwen، يحقق تقدمًا كبيرًا في الاستدلال، القدرات العامة، قدرات الوكلاء، والأداء متعدد اللغات، ويدعم التبديل بين أوضاع التفكير.",
"Qwen/Qwen3-Coder-30B-A3B-Instruct.description": "Qwen3-Coder-30B-A3B-Instruct هو نموذج برمجة من سلسلة Qwen3. مصمم لتحقيق أداء وكفاءة عالية مع تعزيز قدرات البرمجة. يظهر تفوقًا في البرمجة الوكيلة، تشغيل المتصفح التلقائي، واستخدام الأدوات بين النماذج المفتوحة. يدعم سياقًا يصل إلى 256K ويمكن توسيعه إلى مليون رمز لفهم على مستوى قواعد الشيفرة. يدعم البرمجة الوكيلة على منصات مثل Qwen Code وCLINE باستخدام تنسيق مخصص لاستدعاء الوظائف.",
"Qwen/Qwen3-Coder-480B-A35B-Instruct.description": "Qwen3-Coder-480B-A35B-Instruct هو أقوى نموذج برمجة من Alibaba حتى الآن. يعتمد على بنية MoE ويحتوي على 480 مليار معلمة إجمالية و35 مليار معلمة نشطة، مما يوازن بين الكفاءة والأداء. يدعم سياقًا يصل إلى 256 ألف رمز بشكل أصلي، ويمكن توسيعه إلى مليون رمز باستخدام YaRN، مما يتيح التعامل مع قواعد بيانات برمجية ضخمة. صُمم لسير عمل برمجي قائم على الوكلاء، ويمكنه التفاعل مع الأدوات والبيئات لحل مهام برمجية معقدة. يحقق نتائج رائدة بين النماذج المفتوحة في اختبارات البرمجة والوكلاء، ويقارن بأداء نماذج مثل Claude Sonnet 4.",
"Qwen/Qwen3-Next-80B-A3B-Instruct.description": "Qwen3-Next-80B-A3B-Instruct هو نموذج أساسي من الجيل التالي يستخدم بنية Qwen3-Next لتحقيق كفاءة عالية في التدريب والتنفيذ. يجمع بين انتباه هجين (Gated DeltaNet + Gated Attention)، وبنية MoE شديدة التفرع، وتحسينات في استقرار التدريب. يحتوي على 80 مليار معلمة إجمالية، ولكن حوالي 3 مليارات فقط نشطة أثناء التنفيذ، مما يقلل من استهلاك الموارد ويوفر أداءً أسرع بأكثر من 10 مرات مقارنة بـ Qwen3-32B في سياقات تتجاوز 32 ألف رمز. هذا الإصدار الموجه للتعليمات يستهدف المهام العامة (بدون وضع التفكير). يقدم أداءً مماثلاً لـ Qwen3-235B في بعض الاختبارات، ويظهر تفوقًا واضحًا في المهام ذات السياقات الطويلة جدًا.",
"Qwen/Qwen3-Next-80B-A3B-Thinking.description": "Qwen3-Next-80B-A3B-Thinking هو نموذج أساسي من الجيل التالي مصمم للتفكير المعقد. يستخدم بنية Qwen3-Next مع انتباه هجين (Gated DeltaNet + Gated Attention) وبنية MoE شديدة التفرع لتحقيق كفاءة عالية في التدريب والتنفيذ. يحتوي على 80 مليار معلمة إجمالية، ولكن حوالي 3 مليارات فقط نشطة أثناء التنفيذ، مما يقلل من استهلاك الموارد ويوفر أداءً أسرع بأكثر من 10 مرات مقارنة بـ Qwen3-32B في سياقات تتجاوز 32 ألف رمز. هذا الإصدار المخصص للتفكير يستهدف المهام متعددة الخطوات مثل الإثباتات، توليد الشيفرة، التحليل المنطقي، والتخطيط، ويُنتج تسلسلات تفكير منظمة. يتفوق على Qwen3-32B-Thinking ويتجاوز Gemini-2.5-Flash-Thinking في عدة اختبارات.",
"Qwen/Qwen3-Omni-30B-A3B-Captioner.description": "Qwen3-Omni-30B-A3B-Captioner هو نموذج رؤية-لغة من سلسلة Qwen3 مصمم لتوليد أوصاف صور عالية الجودة، دقيقة ومفصلة. يستخدم بنية MoE تحتوي على 30 مليار معلمة لفهم الصور بعمق وتوليد أوصاف سلسة، ويتفوق في التقاط التفاصيل، وفهم المشاهد، والتعرف على الكائنات، والاستدلال العلاقي.",
"Qwen/Qwen3-Omni-30B-A3B-Instruct.description": "Qwen3-Omni-30B-A3B-Instruct هو نموذج MoE من سلسلة Qwen3 يحتوي على 30 مليار معلمة إجمالية و3 مليارات نشطة، ويقدم أداءً قويًا بتكلفة تنفيذ منخفضة. تم تدريبه على بيانات متعددة اللغات وعالية الجودة من مصادر متنوعة، ويدعم إدخالًا متعدد الوسائط (نص، صور، صوت، فيديو) وفهمًا وتوليدًا عبر الوسائط.",
"Qwen/Qwen3-Omni-30B-A3B-Thinking.description": "Qwen3-Omni-30B-A3B-Thinking هو المكون الأساسي \"المفكر\" في Qwen3-Omni. يعالج مدخلات متعددة الوسائط (نص، صوت، صور، فيديو) ويؤدي استدلالًا معقدًا بتسلسل تفكير، موحدًا المدخلات في تمثيل مشترك لفهم عميق عبر الوسائط. إنه نموذج MoE يحتوي على 30 مليار معلمة إجمالية و3 مليارات نشطة، ويوازن بين قوة الاستدلال وكفاءة الحوسبة.",
"Qwen/Qwen3-VL-235B-A22B-Instruct.description": "Qwen3-VL-235B-A22B-Instruct هو نموذج Qwen3-VL كبير موجه للتعليمات، مبني على بنية MoE، ويقدم فهمًا وتوليدًا متعدد الوسائط ممتازًا. يدعم سياقًا يصل إلى 256 ألف رمز بشكل أصلي، ومناسب لخدمات الإنتاج متعددة الوسائط ذات التوافر العالي.",
"Qwen/Qwen3-VL-235B-A22B-Thinking.description": "Qwen3-VL-235B-A22B-Thinking هو الإصدار الرائد للتفكير من Qwen3-VL، مُحسَّن للاستدلال متعدد الوسائط المعقد، والاستدلال في السياقات الطويلة، وتفاعل الوكلاء في سيناريوهات المؤسسات.",
"Qwen/Qwen3-VL-30B-A3B-Instruct.description": "Qwen3-VL-30B-A3B-Instruct هو نموذج Qwen3-VL موجه للتعليمات يتمتع بفهم وتوليد قوي بين الرؤية واللغة. يدعم سياقًا يصل إلى 256 ألف رمز بشكل أصلي للدردشة متعددة الوسائط وتوليد النصوص بناءً على الصور.",
"Qwen/Qwen3-VL-30B-A3B-Thinking.description": "Qwen3-VL-30B-A3B-Thinking هو الإصدار المعزز بالاستدلال من Qwen3-VL، مُحسَّن للاستدلال متعدد الوسائط، وتحويل الصور إلى شيفرة، وفهم بصري معقد. يدعم سياقًا يصل إلى 256 ألف رمز مع قدرة أقوى على تسلسل التفكير.",
"Qwen/Qwen3-VL-32B-Instruct.description": "Qwen3-VL-32B-Instruct هو نموذج رؤية-لغة من فريق Qwen يحقق نتائج رائدة في اختبارات VL متعددة. يدعم صورًا بدقة ميغابيكسل ويوفر فهمًا بصريًا قويًا، والتعرف البصري متعدد اللغات، وتحديد دقيق للعناصر البصرية، وحوارًا بصريًا. يتعامل مع مهام متعددة الوسائط معقدة ويدعم استدعاء الأدوات وإكمال المقدمات.",
"Qwen/Qwen3-VL-32B-Thinking.description": "Qwen3-VL-32B-Thinking مُحسَّن للاستدلال البصري المعقد. يتضمن وضع تفكير مدمج يُنتج خطوات استدلال وسيطة قبل الإجابات، مما يعزز المنطق متعدد الخطوات، والتخطيط، والاستدلال المعقد. يدعم صورًا بدقة ميغابيكسل، وفهمًا بصريًا قويًا، والتعرف البصري متعدد اللغات، وتحديدًا دقيقًا، وحوارًا بصريًا، واستدعاء الأدوات، وإكمال المقدمات.",
"Qwen/Qwen3-VL-8B-Instruct.description": "Qwen3-VL-8B-Instruct هو نموذج رؤية-لغة من Qwen3 مبني على Qwen3-8B-Instruct ومدرب على بيانات ضخمة من الصور والنصوص. يتفوق في الفهم البصري العام، والحوار المرتكز على الرؤية، والتعرف على النصوص متعددة اللغات في الصور، ومناسب لأسئلة وأجوبة بصرية، وتوليد أوصاف، واتباع التعليمات متعددة الوسائط، واستخدام الأدوات.",
"Qwen/Qwen3-VL-8B-Thinking.description": "Qwen3-VL-8B-Thinking هو إصدار التفكير البصري من Qwen3، مُحسَّن للاستدلال متعدد الخطوات المعقد. يُنتج سلسلة تفكير قبل الإجابات لتحسين الدقة، ومثالي لأسئلة وأجوبة بصرية عميقة وتحليل صور مفصل.",
"Qwen/Qwen3.5-122B-A10B.description": "Qwen3.5-122B-A10B هو نموذج لغة كبير متعدد الوسائط من فريق Qwen مع إجمالي 122 مليار معلمة و10 مليارات معلمة مفعلة فقط. يعتمد على بنية هجينة فعالة تجمع بين شبكات Gated Delta وMixture-of-Experts (MoE)، ويدعم طول سياق 256K مع إمكانية التمديد إلى حوالي مليون رمز.",
"Qwen/Qwen3.5-27B.description": "Qwen3.5-27B هو نموذج لغة كبير متعدد الوسائط من فريق Qwen مع 27 مليار معلمة. يعتمد على بنية هجينة فعالة تجمع بين شبكات Gated Delta وGated Attention، ويدعم طول سياق 256K مع إمكانية التمديد إلى حوالي مليون رمز.",
"Qwen/Qwen3.5-35B-A3B.description": "Qwen3.5-35B-A3B هو نموذج لغة كبير متعدد الوسائط من فريق Qwen مع إجمالي 35 مليار معلمة و3 مليارات معلمة مفعلة فقط. يعتمد على بنية هجينة فعالة تجمع بين شبكات Gated Delta وMixture-of-Experts (MoE)، ويدعم طول سياق 256K مع إمكانية التمديد إلى حوالي مليون رمز.",
"Qwen/Qwen3.5-397B-A17B.description": "Qwen3.5-397B-A17B هو أحدث نموذج رؤية-لغة في سلسلة Qwen3.5، يستخدم بنية Mixture-of-Experts (MoE) مع إجمالي 397 مليار معلمة و17 مليار معلمة مفعلة. يدعم طول سياق 256K مع إمكانية التمديد إلى حوالي مليون رمز، يدعم 201 لغة، ويوفر فهمًا موحدًا للرؤية-اللغة، واستدعاء الأدوات، وقدرات الاستنتاج.",
"Qwen/Qwen3.5-4B.description": "Qwen3.5-4B هو نموذج لغة كبير متعدد الوسائط من فريق Qwen مع 4 مليارات معلمة، وهو النموذج الأكثر خفة في سلسلة Qwen3.5. يعتمد على بنية هجينة فعالة تجمع بين شبكات Gated Delta وGated Attention، ويدعم طول سياق 256K مع إمكانية التمديد إلى حوالي مليون رمز.",
"Qwen/Qwen3.5-9B.description": "Qwen3.5-9B هو نموذج لغة كبير متعدد الوسائط من فريق Qwen مع 9 مليارات معلمة. كنموذج خفيف الوزن في سلسلة Qwen3.5، يعتمد على بنية هجينة فعالة تجمع بين شبكات Gated Delta وGated Attention، ويدعم طول سياق 256K مع إمكانية التمديد إلى حوالي مليون رمز.",
"Qwen2-72B-Instruct.description": "Qwen2 هو أحدث إصدار من سلسلة Qwen، يدعم نافذة سياق تصل إلى 128 ألف رمز. مقارنة بأفضل النماذج المفتوحة الحالية، يتفوق Qwen2-72B بشكل كبير في فهم اللغة الطبيعية، والمعرفة، والبرمجة، والرياضيات، والقدرات متعددة اللغات.",
"Qwen2-7B-Instruct.description": "Qwen2 هو أحدث إصدار من سلسلة Qwen، ويتفوق على أفضل النماذج المفتوحة من نفس الحجم وحتى الأكبر منها. يُظهر Qwen2 7B تفوقًا ملحوظًا في عدة اختبارات، خاصة في البرمجة وفهم اللغة الصينية.",
"Qwen2-VL-72B.description": "Qwen2-VL-72B هو نموذج رؤية-لغة قوي يدعم معالجة متعددة الوسائط للنصوص والصور، ويتعرف بدقة على محتوى الصور ويولد أوصافًا أو إجابات ذات صلة.",
"Qwen2.5-14B-Instruct.description": "Qwen2.5-14B-Instruct هو نموذج لغوي كبير يحتوي على 14 مليار معلمة، يتمتع بأداء قوي، ومُحسَّن للسيناريوهات الصينية ومتعددة اللغات، ويدعم الأسئلة والأجوبة الذكية وتوليد المحتوى.",
"Qwen2.5-32B-Instruct.description": "Qwen2.5-32B-Instruct هو نموذج لغوي كبير يحتوي على 32 مليار معلمة، يتمتع بأداء متوازن، ومُحسَّن للسيناريوهات الصينية ومتعددة اللغات، ويدعم الأسئلة والأجوبة الذكية وتوليد المحتوى.",
"Qwen2.5-72B-Instruct.description": "نموذج لغوي كبير للغتين الصينية والإنجليزية، مُحسَّن للغة، والبرمجة، والرياضيات، والاستدلال.",
"Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct هو نموذج لغوي يحتوي على 7 مليارات معلمة، يدعم استدعاء الوظائف والتكامل السلس مع الأنظمة الخارجية، مما يعزز المرونة وقابلية التوسع. مُحسَّن للسيناريوهات الصينية ومتعددة اللغات، ويدعم الأسئلة والأجوبة الذكية وتوليد المحتوى.",
"Qwen2.5-Coder-14B-Instruct.description": "Qwen2.5-Coder-14B-Instruct هو نموذج تعليمات برمجة مدرب مسبقًا على نطاق واسع يتمتع بفهم وتوليد قوي للشيفرة. يتعامل بكفاءة مع مجموعة واسعة من مهام البرمجة، ومثالي للبرمجة الذكية، وتوليد السكربتات التلقائي، والأسئلة والأجوبة البرمجية.",
"Qwen2.5-Coder-32B-Instruct.description": "نموذج لغوي متقدم لتوليد الشيفرة، والاستدلال، وإصلاح الأخطاء عبر لغات البرمجة الرئيسية.",
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 مُحسَّن للاستدلال المتقدم واتباع التعليمات، ويستخدم بنية MoE للحفاظ على كفاءة الاستدلال على نطاق واسع.",
"Qwen3-235B.description": "Qwen3-235B-A22B هو نموذج MoE يُقدِّم وضع استدلال هجين، يتيح للمستخدمين التبديل بسلاسة بين التفكير وعدم التفكير. يدعم الفهم والاستدلال عبر 119 لغة ولهجة، ويتمتع بقدرات قوية على استدعاء الأدوات، ويتنافس مع نماذج رائدة مثل DeepSeek R1 وOpenAI o1 وo3-mini وGrok 3 وGoogle Gemini 2.5 Pro في اختبارات القدرات العامة، والبرمجة والرياضيات، والقدرات متعددة اللغات، واستدلال المعرفة.",
"Qwen3-32B.description": "Qwen3-32B هو نموذج كثيف يُقدِّم وضع استدلال هجين، يتيح للمستخدمين التبديل بين التفكير وعدم التفكير. بفضل تحسينات في البنية، وبيانات أكثر، وتدريب أفضل، يقدم أداءً مماثلًا لـ Qwen2.5-72B.",
"SenseChat-128K.description": "الإصدار الرابع الأساسي مع سياق 128 ألف رمز، قوي في فهم وتوليد النصوص الطويلة.",
"SenseChat-32K.description": "الإصدار الرابع الأساسي مع سياق 32 ألف رمز، مرن لمجموعة متنوعة من السيناريوهات.",
"SenseChat-5-1202.description": "أحدث إصدار مبني على V5.5، مع تحسينات كبيرة في الأساسيات الصينية/الإنجليزية، والدردشة، ومعرفة العلوم والتكنولوجيا، والمعرفة الإنسانية، والكتابة، والرياضيات/المنطق، والتحكم في الطول.",
"SenseChat-5-Cantonese.description": "مصمم ليتماشى مع عادات الحوار في هونغ كونغ، واللغة العامية، والمعرفة المحلية؛ يتفوق على GPT-4 في فهم الكانتونية ويضاهي GPT-4 Turbo في المعرفة، والاستدلال، والرياضيات، والبرمجة.",
"SenseChat-5-beta.description": "يتفوق في بعض الجوانب على SenseChat-5-1202.",
"SenseChat-5.description": "أحدث إصدار V5.5 مع سياق 128 ألف رمز؛ تحسينات كبيرة في الاستدلال الرياضي، والدردشة باللغة الإنجليزية، واتباع التعليمات، وفهم النصوص الطويلة، ويقارن بـ GPT-4o.",
"SenseChat-Character-Pro.description": "نموذج دردشة متقدم للشخصيات مع سياق 32 ألف رمز، وقدرات محسنة، ودعم للغتين الصينية والإنجليزية.",
"SenseChat-Character.description": "نموذج دردشة قياسي للشخصيات مع سياق 8 آلاف رمز وسرعة استجابة عالية.",
"SenseChat-Turbo-1202.description": "أحدث نموذج خفيف الوزن يصل إلى أكثر من 90% من قدرات النموذج الكامل بتكلفة تنفيذ أقل بكثير.",
"SenseChat-Turbo.description": "مناسب لأسئلة وأجوبة سريعة وسيناريوهات تحسين النماذج.",
"SenseChat-Vision.description": "أحدث إصدار V5.5 مع إدخال متعدد الصور وتحسينات شاملة في التعرف على السمات، والعلاقات المكانية، واكتشاف الأحداث/الحركات، وفهم المشاهد، والتعرف على المشاعر، والاستدلال المنطقي، وفهم/توليد النصوص.",
"SenseChat.description": "الإصدار الرابع الأساسي مع سياق 4 آلاف رمز وقدرات عامة قوية.",
"SenseNova-V6-5-Pro.description": "مع تحديثات شاملة في البيانات متعددة الوسائط واللغوية والاستدلالية، إلى جانب تحسين استراتيجية التدريب، يُظهر النموذج الجديد تحسنًا كبيرًا في الاستدلال متعدد الوسائط واتباع التعليمات العامة، ويدعم نافذة سياق تصل إلى 128 ألف رمز، ويتفوق في مهام التعرف على النصوص (OCR) والتعرف على الملكية الفكرية في السياحة الثقافية.",
"SenseNova-V6-5-Turbo.description": "مع تحديثات شاملة في البيانات متعددة الوسائط واللغوية والاستدلالية، إلى جانب تحسين استراتيجية التدريب، يُظهر النموذج الجديد تحسنًا كبيرًا في الاستدلال متعدد الوسائط واتباع التعليمات العامة، ويدعم نافذة سياق تصل إلى 128 ألف رمز، ويتفوق في مهام التعرف على النصوص (OCR) والتعرف على الملكية الفكرية في السياحة الثقافية.",
"SenseNova-V6-Pro.description": "يوحد بشكل أصيل بين الصورة والنص والفيديو، متجاوزًا الحواجز التقليدية بين الوسائط المتعددة؛ ويحتل المراتب الأولى في OpenCompass وSuperCLUE.",
"SenseNova-V6-Reasoner.description": "يجمع بين الرؤية واللغة في استدلال عميق، ويدعم التفكير البطيء وسلسلة التفكير الكاملة.",
"SenseNova-V6-Turbo.description": "يوحد بشكل أصيل بين الصورة والنص والفيديو، متجاوزًا الحواجز التقليدية بين الوسائط المتعددة. يتفوق في القدرات الأساسية للوسائط المتعددة واللغة، ويحتل مرتبة متقدمة في العديد من التقييمات.",
"Skylark2-lite-8k.description": "الجيل الثاني من نموذج Skylark. يتميز Skylark2-lite بسرعة استجابة عالية في السيناريوهات الحساسة للتكلفة والتي لا تتطلب دقة عالية، مع نافذة سياق تصل إلى 8 آلاف رمز.",
"Skylark2-pro-32k.description": "الجيل الثاني من نموذج Skylark. يوفر Skylark2-pro دقة أعلى في توليد النصوص المعقدة مثل كتابة المحتوى الاحترافي، وتأليف الروايات، والترجمة عالية الجودة، مع نافذة سياق تصل إلى 32 ألف رمز.",
"Skylark2-pro-4k.description": "الجيل الثاني من نموذج Skylark. يوفر Skylark2-pro دقة أعلى في توليد النصوص المعقدة مثل كتابة المحتوى الاحترافي، وتأليف الروايات، والترجمة عالية الجودة، مع نافذة سياق تصل إلى 4 آلاف رمز.",
"Skylark2-pro-character-4k.description": "الجيل الثاني من نموذج Skylark. يتميز Skylark2-pro-character في تقمص الأدوار والدردشة، حيث يطابق التعليمات بأساليب شخصية مميزة وحوار طبيعي، مما يجعله مثاليًا للروبوتات الافتراضية والمساعدين الافتراضيين وخدمة العملاء، مع استجابات سريعة.",
"Skylark2-pro-turbo-8k.description": "الجيل الثاني من نموذج Skylark. يوفر Skylark2-pro-turbo-8k استدلالًا أسرع بتكلفة أقل مع نافذة سياق تصل إلى 8 آلاف رمز.",
"THUDM/GLM-4-32B-0414.description": "GLM-4-32B-0414 هو نموذج GLM من الجيل التالي يحتوي على 32 مليار معامل، ويقارن في الأداء مع نماذج OpenAI GPT وسلسلة DeepSeek V3/R1.",
"THUDM/GLM-4-9B-0414.description": "GLM-4-9B-0414 هو نموذج GLM يحتوي على 9 مليارات معامل، ويعتمد على تقنيات GLM-4-32B مع إمكانية نشر أخف. يتميز في توليد الشيفرات، وتصميم الويب، وتوليد SVG، والكتابة المعتمدة على البحث.",
"THUDM/GLM-4.1V-9B-Thinking.description": "GLM-4.1V-9B-Thinking هو نموذج رؤية-لغة مفتوح المصدر من Zhipu AI ومختبر KEG بجامعة تسينغهوا، مصمم للإدراك المعقد متعدد الوسائط. يعتمد على GLM-4-9B-0414 ويضيف سلسلة التفكير والتعلم المعزز لتحسين الاستدلال عبر الوسائط والاستقرار بشكل كبير.",
"THUDM/GLM-Z1-32B-0414.description": "GLM-Z1-32B-0414 هو نموذج استدلال عميق مبني على GLM-4-32B-0414 باستخدام بيانات بدء باردة وتوسيع التعلم المعزز، وتم تدريبه بشكل إضافي على الرياضيات والبرمجة والمنطق. يُظهر تحسنًا كبيرًا في القدرة على حل المسائل الرياضية والمهام المعقدة مقارنة بالنموذج الأساسي.",
"THUDM/GLM-Z1-9B-0414.description": "GLM-Z1-9B-0414 هو نموذج GLM صغير يحتوي على 9 مليارات معامل، يحتفظ بقوة المصدر المفتوح ويقدم أداءً مميزًا. يتميز في الاستدلال الرياضي والمهام العامة، ويتفوق على النماذج المفتوحة من نفس الفئة الحجمية.",
"THUDM/glm-4-9b-chat.description": "GLM-4-9B-Chat هو النموذج مفتوح المصدر من Zhipu AI ضمن سلسلة GLM-4. يتميز بقوة في الفهم الدلالي، والرياضيات، والاستدلال، والبرمجة، والمعرفة. بالإضافة إلى الدردشة متعددة الأدوار، يدعم تصفح الويب، وتنفيذ الشيفرات، واستدعاء الأدوات المخصصة، والاستدلال على النصوص الطويلة. يدعم 26 لغة (بما في ذلك الصينية، والإنجليزية، واليابانية، والكورية، والألمانية). يحقق أداءً جيدًا في AlignBench-v2 وMT-Bench وMMLU وC-Eval، ويدعم نافذة سياق تصل إلى 128 ألف رمز للاستخدام الأكاديمي والتجاري.",
"Tongyi-Zhiwen/QwenLong-L1-32B.description": "QwenLong-L1-32B هو أول نموذج استدلال طويل السياق (LRM) تم تدريبه باستخدام التعلم المعزز، ومُحسَّن للاستدلال على النصوص الطويلة. تتيح استراتيجية التوسيع التدريجي للسياق انتقالًا مستقرًا من السياقات القصيرة إلى الطويلة. يتفوق على OpenAI-o3-mini وQwen3-235B-A22B في سبعة اختبارات استدلال على مستندات طويلة، ويضاهي Claude-3.7-Sonnet-Thinking. يتميز بقوة خاصة في الرياضيات والمنطق والاستدلال متعدد الخطوات.",
"Yi-34B-Chat.description": "Yi-1.5-34B يحتفظ بقدرات اللغة العامة القوية للسلسلة، ويستخدم تدريبًا تدريجيًا على 500 مليار رمز عالي الجودة لتحسين كبير في المنطق الرياضي والبرمجة.",
"abab5.5-chat.description": "مصمم لسيناريوهات الإنتاجية، مع قدرة على التعامل مع المهام المعقدة وتوليد نصوص فعالة للاستخدام المهني.",
"abab5.5s-chat.description": "مصمم للدردشة بشخصيات صينية، ويقدم حوارات صينية عالية الجودة لمجموعة متنوعة من التطبيقات.",
"abab6.5g-chat.description": "مصمم للدردشة متعددة اللغات بشخصيات، ويدعم توليد حوارات عالية الجودة بالإنجليزية ولغات أخرى.",
"abab6.5s-chat.description": "مناسب لمجموعة واسعة من مهام معالجة اللغة الطبيعية، بما في ذلك توليد النصوص وأنظمة الحوار.",
"abab6.5t-chat.description": "محسن للدردشة بشخصيات صينية، ويوفر حوارات سلسة تتماشى مع أساليب التعبير الصينية.",
"accounts/fireworks/models/deepseek-r1.description": "DeepSeek-R1 هو نموذج لغة كبير متقدم تم تحسينه باستخدام التعلم المعزز وبيانات بدء باردة، ويقدم أداءً ممتازًا في الاستدلال والرياضيات والبرمجة.",
"accounts/fireworks/models/deepseek-v3.description": "نموذج لغة قوي من نوع Mixture-of-Experts (MoE) من DeepSeek يحتوي على 671 مليار معامل إجمالي و37 مليار معامل نشط لكل رمز.",
"accounts/fireworks/models/llama-v3-70b-instruct.description": "طورت Meta وأصدرت سلسلة نماذج Meta Llama 3 LLM، والتي تتضمن نماذج توليد نصوص مدربة مسبقًا ومضبوطة على التعليم بحجم 8B و70B. تم تحسين نماذج Llama 3 المضبوطة على التعليم للاستخدام في المحادثات، وتتفوّق على العديد من نماذج الدردشة المفتوحة الحالية في معايير الصناعة الشائعة.",
"accounts/fireworks/models/llama-v3-8b-instruct-hf.description": "تم تحسين نماذج Llama 3 من Meta المضبوطة على التعليم للاستخدام في المحادثات، وتتفوّق على العديد من نماذج الدردشة المفتوحة الحالية في معايير الصناعة الشائعة. Llama 3 8B Instruct (إصدار HF) هو النسخة الأصلية FP16 من Llama 3 8B Instruct، ومن المتوقع أن تتطابق نتائجه مع تنفيذ Hugging Face الرسمي.",
"accounts/fireworks/models/llama-v3-8b-instruct.description": "طورت Meta وأصدرت سلسلة نماذج Meta Llama 3 LLM، وهي مجموعة من نماذج توليد النصوص المدربة مسبقًا والمضبوطة على التعليم بحجم 8B و70B. تم تحسين نماذج Llama 3 المضبوطة على التعليم للاستخدام في المحادثات، وتتفوّق على العديد من نماذج الدردشة المفتوحة الحالية في معايير الصناعة الشائعة.",
"accounts/fireworks/models/llama-v3p1-405b-instruct.description": "Meta Llama 3.1 هي عائلة من نماذج اللغة الكبيرة متعددة اللغات، تشمل نماذج توليد مدربة مسبقًا ومضبوطة على التعليم بأحجام 8B و70B و405B. تم تحسين النماذج النصية المضبوطة على التعليم للحوار متعدد اللغات، وتتفوّق على العديد من نماذج الدردشة المفتوحة والمغلقة في معايير الصناعة الشائعة. يُعد نموذج 405B الأقوى في عائلة Llama 3.1، ويستخدم استدلال FP8 يتطابق بشكل وثيق مع التنفيذ المرجعي.",
"accounts/fireworks/models/llama-v3p1-70b-instruct.description": "Meta Llama 3.1 هي عائلة من نماذج اللغة الكبيرة متعددة اللغات، تشمل نماذج توليد مدربة مسبقًا ومضبوطة على التعليم بأحجام 8B و70B و405B. تم تحسين النماذج النصية المضبوطة على التعليم للحوار متعدد اللغات، وتتفوّق على العديد من نماذج الدردشة المفتوحة والمغلقة في معايير الصناعة الشائعة.",
"accounts/fireworks/models/llama-v3p1-8b-instruct.description": "Meta Llama 3.1 هي عائلة من نماذج اللغة الكبيرة متعددة اللغات، تشمل نماذج توليد مدربة مسبقًا ومضبوطة على التعليم بأحجام 8B و70B و405B. تم تحسين النماذج النصية المضبوطة على التعليم للحوار متعدد اللغات، وتتفوّق على العديد من نماذج الدردشة المفتوحة والمغلقة في معايير الصناعة الشائعة.",
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct.description": "نموذج استدلال بصري مضبوط على التعليم من Meta يحتوي على 11 مليار معامل، مُحسّن للتعرف البصري، واستدلال الصور، والتعليق التوضيحي، والأسئلة والأجوبة المتعلقة بالصور. يفهم البيانات البصرية مثل الرسوم البيانية والمخططات، ويصل بين الرؤية واللغة من خلال توليد أوصاف نصية لتفاصيل الصور.",
"accounts/fireworks/models/llama-v3p2-3b-instruct.description": "Llama 3.2 3B Instruct هو نموذج متعدد اللغات خفيف الوزن من Meta، مصمم لتشغيل فعال بزمن استجابة منخفض وتكلفة أقل مقارنة بالنماذج الأكبر. تشمل حالات الاستخدام الشائعة إعادة صياغة الاستعلامات/المطالبات والمساعدة في الكتابة.",
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct.description": "نموذج استدلال بصري مضبوط على التعليم من Meta يحتوي على 90 مليار معامل، مُحسّن للتعرف البصري، واستدلال الصور، والتعليق التوضيحي، والأسئلة والأجوبة المتعلقة بالصور. يفهم البيانات البصرية مثل الرسوم البيانية والمخططات، ويصل بين الرؤية واللغة من خلال توليد أوصاف نصية لتفاصيل الصور. ملاحظة: يتم توفير هذا النموذج حاليًا بشكل تجريبي كنموذج بدون خادم. للاستخدام الإنتاجي، يرجى ملاحظة أن Fireworks قد توقف نشر النموذج دون إشعار مسبق.",
"accounts/fireworks/models/llama-v3p3-70b-instruct.description": "Llama 3.3 70B Instruct هو التحديث الصادر في ديسمبر لنموذج Llama 3.1 70B. يُحسّن استخدام الأدوات، ودعم النصوص متعددة اللغات، والرياضيات، والبرمجة مقارنة بإصدار يوليو 2024. يحقق أداءً رائدًا في الصناعة في مجالات الاستدلال، والرياضيات، واتباع التعليمات، ويقدم أداءً مماثلًا لـ 3.1 405B مع مزايا كبيرة في السرعة والتكلفة.",
"accounts/fireworks/models/mistral-small-24b-instruct-2501.description": "نموذج يحتوي على 24 مليار معامل يتمتع بقدرات متقدمة تضاهي النماذج الأكبر حجمًا.",
"accounts/fireworks/models/mixtral-8x22b-instruct.description": "Mixtral MoE 8x22B Instruct v0.1 هو الإصدار المضبوط على التعليم من Mixtral MoE 8x22B v0.1، مع تمكين واجهة برمجة تطبيقات إكمال الدردشة.",
"accounts/fireworks/models/mixtral-8x7b-instruct.description": "Mixtral MoE 8x7B Instruct هو الإصدار المضبوط على التعليم من Mixtral MoE 8x7B، مع تمكين واجهة برمجة تطبيقات إكمال الدردشة.",
"accounts/fireworks/models/mythomax-l2-13b.description": "نسخة محسّنة من MythoMix، ربما تكون شكله الأكثر تطورًا، تدمج بين MythoLogic-L2 وHuginn باستخدام تقنية دمج تجريبية للغاية من نوع tensor. تميزها يجعلها ممتازة لسرد القصص ولعب الأدوار.",
"accounts/fireworks/models/phi-3-vision-128k-instruct.description": "Phi-3-Vision-128K-Instruct هو نموذج متعدد الوسائط خفيف الوزن ومتقدم، تم بناؤه باستخدام بيانات تركيبية ومجموعات بيانات عامة منسقة من الويب، ويركز على بيانات النصوص والرؤية عالية الجودة والمكثفة في الاستدلال. ينتمي إلى عائلة Phi-3، ويتميز بإصدار متعدد الوسائط يدعم طول سياق يصل إلى 128 ألف رمز. يخضع النموذج لتحسينات دقيقة تشمل الضبط الخاضع للإشراف وتحسين التفضيلات المباشرة لضمان اتباع التعليمات بدقة وتدابير أمان قوية.",
"accounts/fireworks/models/qwen-qwq-32b-preview.description": "يركز نموذج Qwen QwQ على تعزيز قدرات الاستدلال في الذكاء الاصطناعي، ويُظهر أن النماذج المفتوحة يمكن أن تنافس النماذج المغلقة الرائدة في مجال الاستدلال. QwQ-32B-Preview هو إصدار تجريبي يضاهي o1 ويتفوق على GPT-4o وClaude 3.5 Sonnet في الاستدلال والتحليل عبر معايير GPQA وAIME وMATH-500 وLiveCodeBench. ملاحظة: يتم توفير هذا النموذج حاليًا بشكل تجريبي كنموذج بدون خادم. للاستخدام الإنتاجي، يرجى ملاحظة أن Fireworks قد توقف نشر النموذج دون إشعار مسبق.",
"accounts/fireworks/models/qwen2-vl-72b-instruct.description": "نموذج Qwen-VL بحجم 72B هو أحدث إصدار من Alibaba، ويعكس ما يقرب من عام من الابتكار.",
"accounts/fireworks/models/qwen2p5-72b-instruct.description": "Qwen2.5 هي سلسلة نماذج LLM تعتمد فقط على وحدة فك التشفير، تم تطويرها بواسطة فريق Qwen وAlibaba Cloud، وتتوفر بأحجام 0.5B و1.5B و3B و7B و14B و32B و72B، مع إصدارات أساسية ومضبوطة على التعليم.",
"accounts/fireworks/models/qwen2p5-coder-32b-instruct.description": "Qwen2.5-Coder هو أحدث نموذج LLM من Qwen مصمم للبرمجة (سابقًا CodeQwen). ملاحظة: يتم توفير هذا النموذج حاليًا بشكل تجريبي كنموذج بدون خادم. للاستخدام الإنتاجي، يرجى ملاحظة أن Fireworks قد توقف نشر النموذج دون إشعار مسبق.",
"accounts/yi-01-ai/models/yi-large.description": "Yi-Large هو نموذج LLM من الدرجة الأولى يحتل مرتبة أقل بقليل من GPT-4 وGemini 1.5 Pro وClaude 3 Opus في لوحة تصنيف LMSYS. يتميز بقدرات متعددة اللغات، خاصة في الإسبانية والصينية واليابانية والألمانية والفرنسية. كما أنه صديق للمطورين، حيث يستخدم نفس مخطط واجهة برمجة التطبيقات مثل OpenAI لتسهيل التكامل.",
"ai21-jamba-1.5-large.description": "نموذج متعدد اللغات يحتوي على 398 مليار معلمة (94 مليار نشطة)، يدعم نافذة سياق تصل إلى 256 ألف، واستدعاء الدوال، وإخراج منظم، وتوليد مستند إلى مصادر.",
"ai21-jamba-1.5-mini.description": "نموذج متعدد اللغات يحتوي على 52 مليار معلمة (12 مليار نشطة)، يدعم نافذة سياق تصل إلى 256 ألف، واستدعاء الدوال، وإخراج منظم، وتوليد مستند إلى مصادر.",
"ai21-labs/AI21-Jamba-1.5-Large.description": "نموذج متعدد اللغات يحتوي على 398 مليار معلمة (94 مليار نشطة)، يدعم نافذة سياق تصل إلى 256 ألف، واستدعاء الدوال، وإخراج منظم، وتوليد مستند إلى مصادر.",
"ai21-labs/AI21-Jamba-1.5-Mini.description": "نموذج متعدد اللغات يحتوي على 52 مليار معلمة (12 مليار نشطة)، يدعم نافذة سياق تصل إلى 256 ألف، واستدعاء الدوال، وإخراج منظم، وتوليد مستند إلى مصادر.",
"alibaba/qwen-3-14b.description": "Qwen3 هو الجيل الأحدث من سلسلة Qwen، ويقدم مجموعة شاملة من النماذج الكثيفة ونماذج MoE. تم تدريبه على نطاق واسع، ويحقق تطورات في الاستدلال، واتباع التعليمات، وقدرات الوكلاء، ودعم متعدد اللغات.",
"alibaba/qwen-3-235b.description": "Qwen3 هو الجيل الأحدث من سلسلة Qwen، ويقدم مجموعة شاملة من النماذج الكثيفة ونماذج MoE. تم تدريبه على نطاق واسع، ويحقق تطورات في الاستدلال، واتباع التعليمات، وقدرات الوكلاء، ودعم متعدد اللغات.",
"alibaba/qwen-3-30b.description": "Qwen3 هو الجيل الأحدث من سلسلة Qwen، ويقدم مجموعة شاملة من النماذج الكثيفة ونماذج MoE. تم تدريبه على نطاق واسع، ويحقق تطورات في الاستدلال، واتباع التعليمات، وقدرات الوكلاء، ودعم متعدد اللغات.",
"alibaba/qwen-3-32b.description": "Qwen3 هو الجيل الأحدث من سلسلة Qwen، ويقدم مجموعة شاملة من النماذج الكثيفة ونماذج MoE. تم تدريبه على نطاق واسع، ويحقق تطورات في الاستدلال، واتباع التعليمات، وقدرات الوكلاء، ودعم متعدد اللغات.",
"alibaba/qwen3-coder.description": "Qwen3-Coder-480B-A35B-Instruct هو أقوى نموذج ترميز من Qwen، يتميز بأداء قوي في الترميز التفاعلي، واستخدام المتصفح، والمهام البرمجية الأساسية، ويضاهي نتائج Claude Sonnet.",
"amazon/nova-lite.description": "نموذج متعدد الوسائط منخفض التكلفة للغاية، يتميز بسرعة فائقة في معالجة الصور والفيديو والنصوص.",
"amazon/nova-micro.description": "نموذج نصي فقط يوفر زمن استجابة منخفض جداً بتكلفة منخفضة.",
"amazon/nova-pro.description": "نموذج متعدد الوسائط عالي الكفاءة يوازن بين الدقة والسرعة والتكلفة لمجموعة واسعة من المهام.",
"amazon/titan-embed-text-v2.description": "Amazon Titan Text Embeddings V2 هو نموذج تضمين متعدد اللغات خفيف وفعال يدعم أبعاد 1024 و512 و256.",
"anthropic.claude-3-5-sonnet-20240620-v1:0.description": "Claude 3.5 Sonnet يرفع معايير الصناعة، متفوقًا على المنافسين وClaude 3 Opus في تقييمات شاملة، مع الحفاظ على سرعة وتكلفة متوسطة.",
"anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet يرفع معايير الصناعة، متفوقًا على المنافسين وClaude 3 Opus في تقييمات شاملة، مع الحفاظ على سرعة وتكلفة متوسطة.",
"anthropic.claude-3-haiku-20240307-v1:0.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، يقدم استجابات شبه فورية للاستفسارات البسيطة. يوفر تجربة ذكاء اصطناعي سلسة شبيهة بالبشر ويدعم إدخال الصور مع نافذة سياق 200 ألف.",
"anthropic.claude-3-opus-20240229-v1:0.description": "Claude 3 Opus هو أقوى نموذج ذكاء اصطناعي من Anthropic بأداء رائد في المهام المعقدة. يتعامل مع المطالبات المفتوحة والسيناريوهات الجديدة بطلاقة وفهم شبيه بالبشر، ويدعم إدخال الصور مع نافذة سياق 200 ألف.",
"anthropic.claude-3-sonnet-20240229-v1:0.description": "Claude 3 Sonnet يوازن بين الذكاء والسرعة لمهام المؤسسات، ويوفر قيمة قوية بتكلفة أقل. صُمم ليكون نموذجًا موثوقًا للنشر واسع النطاق ويدعم إدخال الصور مع نافذة سياق 200 ألف.",
"anthropic.claude-instant-v1.description": "نموذج سريع واقتصادي وفعال للدردشة اليومية، وتحليل النصوص، والتلخيص، والأسئلة والأجوبة على الوثائق.",
"anthropic.claude-v2.description": "نموذج عالي الكفاءة في المهام من الحوار المعقد والتوليد الإبداعي إلى اتباع التعليمات التفصيلية.",
"anthropic.claude-v2:1.description": "Claude 2 محدث مع ضعف نافذة السياق وتحسين الموثوقية، وتقليل معدل الهلوسة، ودقة أعلى مبنية على الأدلة للوثائق الطويلة وRAG.",
"anthropic/claude-3-haiku.description": "Claude 3 Haiku هو أسرع نموذج من Anthropic، مصمم لمهام المؤسسات ذات المطالبات الطويلة. يمكنه تحليل مستندات كبيرة بسرعة مثل التقارير الفصلية والعقود والقضايا القانونية بنصف تكلفة النماذج المماثلة.",
"anthropic/claude-3-opus.description": "Claude 3 Opus هو أذكى نموذج من Anthropic بأداء رائد في المهام المعقدة، يتعامل مع المطالبات المفتوحة والسيناريوهات الجديدة بطلاقة وفهم شبيه بالبشر.",
"anthropic/claude-3.5-haiku.description": "Claude 3.5 Haiku يتميز بسرعة محسنة ودقة في الترميز واستخدام الأدوات، مناسب للسيناريوهات التي تتطلب سرعة وتفاعل مع الأدوات.",
"anthropic/claude-3.5-sonnet.description": "Claude 3.5 Sonnet هو النموذج السريع والفعال في عائلة Sonnet، يقدم أداءً أفضل في الترميز والاستدلال، مع استبدال تدريجي ببعض الإصدارات الأحدث مثل Sonnet 3.7.",
"anthropic/claude-3.7-sonnet.description": "Claude 3.7 Sonnet هو نموذج Sonnet مطور يتمتع باستدلال وترميز أقوى، مناسب للمهام المعقدة على مستوى المؤسسات.",
"anthropic/claude-haiku-4.5.description": "Claude Haiku 4.5 هو نموذج سريع عالي الأداء من Anthropic، يوفر زمن استجابة منخفض جداً مع الحفاظ على دقة عالية.",
"anthropic/claude-opus-4.1.description": "Opus 4.1 هو نموذج متقدم من Anthropic مُحسَّن للبرمجة، والاستدلال المعقد، والمهام طويلة الأمد.",
"anthropic/claude-opus-4.5.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين ذكاء من الدرجة الأولى وأداء قابل للتوسع للمهام المعقدة عالية الجودة.",
"anthropic/claude-opus-4.description": "Opus 4 هو النموذج الرائد من Anthropic المصمم للمهام المعقدة وتطبيقات المؤسسات.",
"anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 هو أحدث نموذج استدلال هجين من Anthropic مُحسَّن للاستدلال المعقد والترميز.",
"anthropic/claude-sonnet-4.description": "Claude Sonnet 4 هو نموذج استدلال هجين من Anthropic يجمع بين التفكير وغير التفكير.",
"ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B هو نموذج LLM متفرق يحتوي على 72 مليار معلمة إجمالية و16 مليار نشطة، يعتمد على بنية MoGE. يقوم بتجميع الخبراء أثناء الاختيار ويقيد الرموز لتنشيط عدد متساوٍ من الخبراء لكل مجموعة، مما يوازن الحمل ويحسن كفاءة النشر على Ascend.",
"aya.description": "Aya 23 هو نموذج متعدد اللغات من Cohere يدعم 23 لغة لمجموعة متنوعة من الاستخدامات.",
"aya:35b.description": "Aya 23 هو نموذج متعدد اللغات من Cohere يدعم 23 لغة لمجموعة متنوعة من الاستخدامات.",
"azure-DeepSeek-R1-0528.description": "تم نشره بواسطة Microsoft؛ تم ترقية DeepSeek R1 إلى DeepSeek-R1-0528. يتضمن التحديث تحسينات في الحوسبة وخوارزميات ما بعد التدريب، مما يعزز عمق الاستدلال والاستنتاج بشكل كبير. يتميز بأداء قوي في الرياضيات، والترميز، والمعايير المنطقية العامة، ويقترب من نماذج رائدة مثل O3 وGemini 2.5 Pro.",
"baichuan-m2-32b.description": "Baichuan M2 32B هو نموذج MoE من Baichuan Intelligence يتمتع بقدرات استدلال قوية.",
"baichuan/baichuan2-13b-chat.description": "Baichuan-13B هو نموذج LLM مفتوح المصدر وقابل للاستخدام التجاري يحتوي على 13 مليار معلمة من Baichuan، يحقق نتائج رائدة في فئته على معايير اللغة الصينية والإنجليزية الموثوقة.",
"baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B هو نموذج MoE من Baidu يحتوي على 300 مليار معلمة إجمالية و47 مليار نشطة لكل رمز، يوازن بين الأداء القوي وكفاءة الحوسبة. كنموذج أساسي في سلسلة ERNIE 4.5، يتميز بالفهم والتوليد والاستدلال والبرمجة. يستخدم طريقة تدريب مسبق متعددة الوسائط غير متجانسة مع تدريب مشترك على النصوص والرؤية لتعزيز القدرات، خاصة في اتباع التعليمات والمعرفة العامة.",
"baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 Thinking Preview هو نموذج ERNIE متعدد الوسائط من الجيل التالي من Baidu، يتميز بفهم متعدد الوسائط قوي، واتباع التعليمات، والإبداع، والأسئلة والأجوبة الواقعية، واستدعاء الأدوات.",
"black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro هو إصدار أسرع ومحسّن من FLUX Pro يتميز بجودة صور ممتازة والتزام دقيق بالتعليمات.",
"black-forest-labs/flux-dev.description": "FLUX Dev هو الإصدار المخصص للتطوير من FLUX للاستخدام غير التجاري.",
"black-forest-labs/flux-pro.description": "FLUX Pro هو النموذج الاحترافي من FLUX لإنتاج صور عالية الجودة.",
"black-forest-labs/flux-schnell.description": "FLUX Schnell هو نموذج توليد صور سريع مُحسّن للأداء العالي.",
"c4ai-aya-expanse-32b.description": "Aya Expanse هو نموذج متعدد اللغات عالي الأداء بحجم 32B يستخدم ضبط التعليمات، وتحليل البيانات، وتدريب التفضيلات، ودمج النماذج لمنافسة النماذج أحادية اللغة. يدعم 23 لغة.",
"c4ai-aya-expanse-8b.description": "Aya Expanse هو نموذج متعدد اللغات عالي الأداء بحجم 8B يستخدم ضبط التعليمات، وتحليل البيانات، وتدريب التفضيلات، ودمج النماذج لمنافسة النماذج أحادية اللغة. يدعم 23 لغة.",
"c4ai-aya-vision-32b.description": "Aya Vision هو نموذج متعدد الوسائط متقدم يقدم أداءً قويًا في اختبارات اللغة والنصوص والرؤية. يدعم 23 لغة. يركز إصدار 32B على الأداء المتعدد اللغات من الدرجة الأولى.",
"c4ai-aya-vision-8b.description": "Aya Vision هو نموذج متعدد الوسائط متقدم يقدم أداءً قويًا في اختبارات اللغة والنصوص والرؤية. يركز إصدار 8B على تقليل التأخير مع الحفاظ على أداء قوي.",
"charglm-3.description": "CharGLM-3 مصمم للمحادثات التمثيلية والدعم العاطفي، ويدعم ذاكرة طويلة متعددة الأدوار وحوارات مخصصة.",
"charglm-4.description": "CharGLM-4 مصمم للمحادثات التمثيلية والدعم العاطفي، ويدعم ذاكرة طويلة متعددة الأدوار وحوارات مخصصة.",
"chatgpt-4o-latest.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي. يجمع بين فهم اللغة القوي وتوليدها للاستخدامات واسعة النطاق مثل دعم العملاء والتعليم والمساعدة التقنية.",
"claude-2.0.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
"claude-2.1.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو النموذج الأسرع من الجيل التالي من Anthropic. مقارنةً بـ Claude 3 Haiku، فإنه يحسن عبر المهارات ويتفوق على أكبر نموذج سابق Claude 3 Opus في العديد من معايير الذكاء.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku يقدم استجابات سريعة للمهام الخفيفة.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هو النموذج الأكثر ذكاءً من Anthropic وأول نموذج استنتاج هجين في السوق. يمكنه إنتاج استجابات شبه فورية أو استنتاجات ممتدة خطوة بخطوة يمكن للمستخدمين رؤيتها. يتميز Sonnet بشكل خاص في البرمجة، علوم البيانات، الرؤية، ومهام الوكيل.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتقديم استجابات شبه فورية بأداء سريع ودقيق.",
"claude-3-opus-20240229.description": "Claude 3 Opus هو أقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet يوازن بين الذكاء والسرعة لتلبية احتياجات المؤسسات، ويوفر فائدة عالية بتكلفة أقل ونشر موثوق على نطاق واسع.",
"claude-3.5-sonnet.description": "يتميز Claude 3.5 Sonnet بقدرات عالية في البرمجة والكتابة والتفكير المعقد.",
"claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet مزود بقدرات تفكير موسعة للمهام التي تتطلب استدلالًا معقدًا.",
"claude-3.7-sonnet.description": "Claude 3.7 Sonnet هو إصدار مطور يتمتع بسياق موسع وقدرات محسّنة.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأذكى نموذج Haiku من Anthropic، يتميز بسرعة البرق والتفكير الممتد.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 نموذج سريع وفعّال لمجموعة متنوعة من المهام.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء والذكاء والطلاقة والفهم.",
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء والذكاء والطلاقة والفهم.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الاستثنائي والأداء القابل للتوسع، مثالي للمهام المعقدة التي تتطلب استجابات عالية الجودة وتفكير متقدم.",
"claude-opus-4-6.description": "Claude Opus 4.6 هو أذكى نموذج من Anthropic لبناء الوكلاء والبرمجة.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 هو أذكى نموذج من Anthropic حتى الآن، يقدم استجابات شبه فورية أو تفكير ممتد خطوة بخطوة مع تحكم دقيق لمستخدمي API.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو أذكى نموذج من Anthropic حتى الآن.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 هو أفضل مزيج من السرعة والذكاء من Anthropic.",
"claude-sonnet-4.description": "Claude Sonnet 4 هو الجيل الأحدث مع أداء محسّن في جميع المهام.",
"codegeex-4.description": "CodeGeeX-4 هو مساعد برمجة ذكي يدعم الأسئلة والأجوبة متعددة اللغات وإكمال الشيفرة لزيادة إنتاجية المطورين.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B هو نموذج توليد شيفرة متعدد اللغات يدعم الإكمال والتوليد، تفسير الشيفرة، البحث عبر الإنترنت، استدعاء الوظائف، وأسئلة وأجوبة على مستوى المستودع، ويغطي مجموعة واسعة من سيناريوهات تطوير البرمجيات. يُعد من أفضل نماذج الشيفرة تحت 10B.",
"codegemma.description": "CodeGemma هو نموذج خفيف الوزن لمهام البرمجة المتنوعة، يتيح التكرار السريع والتكامل السلس.",
"codegemma:2b.description": "CodeGemma هو نموذج خفيف الوزن لمهام البرمجة المتنوعة، يتيح التكرار السريع والتكامل السلس.",
"codellama.description": "Code Llama هو نموذج لغوي كبير يركز على توليد الشيفرة ومناقشتها، ويدعم لغات متعددة لتسهيل سير عمل المطورين.",
"codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama هو نموذج لغوي كبير يركز على توليد الشيفرة ومناقشتها، ويدعم لغات متعددة لتسهيل سير عمل المطورين.",
"codellama:13b.description": "Code Llama هو نموذج لغوي كبير يركز على توليد الشيفرة ومناقشتها، ويدعم لغات متعددة لتسهيل سير عمل المطورين.",
"codellama:34b.description": "Code Llama هو نموذج لغوي كبير يركز على توليد الشيفرة ومناقشتها، ويدعم لغات متعددة لتسهيل سير عمل المطورين.",
"codellama:70b.description": "Code Llama هو نموذج لغوي كبير يركز على توليد الشيفرة ومناقشتها، ويدعم لغات متعددة لتسهيل سير عمل المطورين.",
"codeqwen.description": "CodeQwen1.5 هو نموذج لغوي كبير مدرب على بيانات شيفرة واسعة النطاق، مصمم للمهام البرمجية المعقدة.",
"codestral-latest.description": "Codestral هو أحدث نموذج برمجة لدينا؛ الإصدار v2 (يناير 2025) يستهدف المهام منخفضة التأخير وعالية التكرار مثل FIM، تصحيح الشيفرة، وتوليد الاختبارات.",
"codestral.description": "Codestral هو أول نموذج شيفرة من Mistral AI، يقدم دعمًا قويًا لتوليد الشيفرة.",
"cogito-2.1:671b.description": "Cogito v2.1 671B هو نموذج مفتوح المصدر من الولايات المتحدة للاستخدام التجاري، يتمتع بأداء ينافس النماذج الرائدة، وكفاءة أعلى في الاستدلال على الرموز، وسياق طويل يصل إلى 128 ألف رمز، وقدرات قوية بشكل عام.",
"cogview-3-flash.description": "CogView-3-Flash هو نموذج مجاني لتوليد الصور أطلقته Zhipu. يقوم بتوليد صور تتماشى مع تعليمات المستخدم مع تحقيق درجات جودة جمالية أعلى. يُستخدم CogView-3-Flash بشكل أساسي في مجالات مثل الإبداع الفني، مرجع التصميم، تطوير الألعاب، والواقع الافتراضي، مما يساعد المستخدمين على تحويل أوصاف النصوص إلى صور بسرعة.",
"cogview-4.description": "CogView-4 هو أول نموذج مفتوح المصدر لتحويل النص إلى صورة من Zhipu يدعم توليد الحروف الصينية. يعزز الفهم الدلالي، جودة الصور، وعرض النصوص الصينية/الإنجليزية، ويدعم مطالبات ثنائية اللغة بأي طول، ويمكنه توليد صور بأي دقة ضمن النطاقات المحددة.",
"cohere-command-r-plus.description": "Command R+ هو نموذج متقدم محسّن لاسترجاع المعرفة (RAG) مصمم لأعباء العمل المؤسسية.",
"cohere-command-r.description": "Command R هو نموذج توليدي قابل للتوسع مصمم لاستخدام أدوات واسترجاع المعرفة، مما يتيح ذكاءً اصطناعيًا بجودة الإنتاج.",
"cohere/Cohere-command-r-plus.description": "Command R+ هو نموذج متقدم محسّن لاسترجاع المعرفة (RAG) مصمم لأعباء العمل المؤسسية.",
"cohere/Cohere-command-r.description": "Command R هو نموذج توليدي قابل للتوسع مصمم لاستخدام أدوات واسترجاع المعرفة، مما يتيح ذكاءً اصطناعيًا بجودة الإنتاج.",
"cohere/command-a.description": "Command A هو أقوى نموذج من Cohere حتى الآن، يتفوق في استخدام الأدوات، الوكلاء، استرجاع المعرفة، وحالات الاستخدام متعددة اللغات. يتمتع بسياق بطول 256 ألف رمز، ويعمل على وحدتي GPU فقط، ويوفر إنتاجية أعلى بنسبة 150٪ مقارنة بـ Command R+ 08-2024.",
"cohere/embed-v4.0.description": "نموذج يصنف أو يحول النصوص، الصور، أو المحتوى المختلط إلى تمثيلات مضمنة (embeddings).",
"comfyui/flux-dev.description": "FLUX.1 Dev هو نموذج تحويل النص إلى صورة عالي الجودة (1050 خطوة)، مثالي للإنتاج الإبداعي والفني المتميز.",
"comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev هو نموذج لتحرير الصور يدعم التعديلات الموجهة بالنص، بما في ذلك التعديلات المحلية ونقل الأسلوب.",
"comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev هو نموذج تحويل نص إلى صورة معزز بالأمان تم تطويره بالتعاون مع Krea، ويحتوي على مرشحات أمان مدمجة.",
"comfyui/flux-schnell.description": "FLUX.1 Schnell هو نموذج تحويل نص إلى صورة فائق السرعة يولد صورًا عالية الجودة في 1-4 خطوات، مثالي للاستخدام في الوقت الحقيقي والنماذج الأولية السريعة.",
"comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 هو نموذج تحويل نص إلى صورة كلاسيكي بدقة 512x512، مثالي للنماذج الأولية السريعة والتجارب الإبداعية.",
"comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 مع مشفرات CLIP/T5 مدمجة لا يحتاج إلى ملفات مشفر خارجية، مناسب لنماذج مثل sd3.5_medium_incl_clips مع استخدام موارد أقل.",
"comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 هو نموذج تحويل نص إلى صورة من الجيل التالي مع نسخ كبيرة ومتوسطة. يتطلب ملفات مشفر CLIP خارجية ويوفر جودة صور ممتازة والتزامًا قويًا بالمطالبات.",
"comfyui/stable-diffusion-custom-refiner.description": "نموذج تحويل صورة إلى صورة مخصص لـ SDXL. استخدم custom_sd_lobe.safetensors كاسم ملف النموذج؛ إذا كان لديك VAE، استخدم custom_sd_vae_lobe.safetensors. ضع ملفات النموذج في المجلدات المطلوبة لـ Comfy.",
"comfyui/stable-diffusion-custom.description": "نموذج تحويل نص إلى صورة مخصص لـ SD. استخدم custom_sd_lobe.safetensors كاسم ملف النموذج؛ إذا كان لديك VAE، استخدم custom_sd_vae_lobe.safetensors. ضع ملفات النموذج في المجلدات المطلوبة لـ Comfy.",
"comfyui/stable-diffusion-refiner.description": "نموذج تحويل صورة إلى صورة لـ SDXL ينفذ تحويلات عالية الجودة من الصور المدخلة، ويدعم نقل الأسلوب، الاستعادة، والتنوع الإبداعي.",
"comfyui/stable-diffusion-xl.description": "SDXL هو نموذج تحويل نص إلى صورة يدعم التوليد عالي الدقة 1024x1024 مع جودة صور وتفاصيل محسّنة.",
"command-a-03-2025.description": "Command A هو أقوى نموذج لدينا حتى الآن، يتفوق في استخدام الأدوات، الوكلاء، استرجاع المعرفة، والسيناريوهات متعددة اللغات. يتمتع بسياق بطول 256 ألف رمز، ويعمل على وحدتي GPU فقط، ويوفر إنتاجية أعلى بنسبة 150٪ مقارنة بـ Command R+ 08-2024.",
"command-light-nightly.description": "لتقليل الفجوة بين الإصدارات الرئيسية، نقدم إصدارات Command الليلية. لسلسلة command-light، يُطلق عليها command-light-nightly. إنها النسخة الأحدث والأكثر تجريبية (وقد تكون غير مستقرة)، ويتم تحديثها بانتظام دون إشعار، لذا لا يُنصح باستخدامها في الإنتاج.",
"command-light.description": "نسخة أصغر وأسرع من Command تتمتع بقدرات شبه مماثلة ولكن بسرعة أعلى.",
"command-nightly.description": "لتقليل الفجوة بين الإصدارات الرئيسية، نقدم إصدارات Command الليلية. لسلسلة Command، يُطلق عليها command-nightly. إنها النسخة الأحدث والأكثر تجريبية (وقد تكون غير مستقرة)، ويتم تحديثها بانتظام دون إشعار، لذا لا يُنصح باستخدامها في الإنتاج.",
"command-r-03-2024.description": "command-r هو نموذج محادثة يتبع التعليمات ويؤدي مهام اللغة بجودة أعلى، وموثوقية محسنة، وسياق أطول مقارنة بالنماذج السابقة. يدعم سير العمل المعقد مثل إنشاء الأكواد، RAG، استخدام الأدوات، والوكلاء.",
"command-r-08-2024.description": "command-r-08-2024 هو إصدار محدث من نموذج Command R تم إطلاقه في أغسطس 2024.",
"command-r-plus-04-2024.description": "command-r-plus هو اسم مستعار لـ command-r-plus-04-2024، لذا فإن استخدام command-r-plus في API يشير إلى هذا النموذج.",
"command-r-plus-08-2024.description": "Command R+ هو نموذج دردشة يتبع التعليمات بجودة أعلى، موثوقية أكبر، وسياق أطول من النماذج السابقة. مثالي لسير العمل المعقد في استرجاع المعرفة واستخدام الأدوات متعددة الخطوات.",
"command-r-plus.description": "Command R+ هو نموذج LLM عالي الأداء مصمم لسيناريوهات مؤسسية حقيقية وتطبيقات معقدة.",
"command-r.description": "Command R هو نموذج LLM محسّن لمهام الدردشة والسياق الطويل، مثالي للتفاعل الديناميكي وإدارة المعرفة.",
"command-r7b-12-2024.description": "command-r7b-12-2024 هو تحديث صغير وفعال تم إصداره في ديسمبر 2024. يتفوق في استرجاع المعرفة، استخدام الأدوات، ومهام الوكلاء التي تتطلب استدلالًا معقدًا متعدد الخطوات.",
"command.description": "نموذج دردشة يتبع التعليمات يوفر جودة وموثوقية أعلى في مهام اللغة، مع سياق أطول من نماذجنا التوليدية الأساسية.",
"computer-use-preview.description": "computer-use-preview هو نموذج متخصص لأداة \"استخدام الحاسوب\"، مدرب لفهم وتنفيذ المهام المتعلقة بالحاسوب.",
"dall-e-2.description": "الجيل الثاني من نموذج DALL·E لتوليد صور أكثر واقعية ودقة، بدقة أعلى أربع مرات من الجيل الأول.",
"dall-e-3.description": "أحدث إصدار من نموذج DALL·E، تم إطلاقه في نوفمبر 2023، يدعم توليد صور أكثر واقعية ودقة مع تفاصيل أقوى.",
"databricks/dbrx-instruct.description": "يوفر DBRX Instruct معالجة موثوقة للتعليمات عبر مختلف الصناعات.",
"deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR هو نموذج رؤية-لغة من DeepSeek AI يركز على التعرف البصري على الحروف (OCR) و\"الضغط البصري السياقي\". يستكشف ضغط السياق من الصور، ويعالج المستندات بكفاءة، ويحولها إلى نص منظم (مثل Markdown). يتعرف بدقة على النصوص في الصور، مما يجعله مناسبًا لتحويل المستندات إلى صيغة رقمية، واستخراج النصوص، والمعالجة المنظمة.",
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "يستخلص DeepSeek-R1-0528-Qwen3-8B سلسلة التفكير من DeepSeek-R1-0528 ويطبقها على Qwen3 8B Base. يحقق أداءً رائدًا بين النماذج المفتوحة، متفوقًا على Qwen3 8B بنسبة 10٪ في AIME 2024 ويضاهي أداء Qwen3-235B-thinking. يتميز في اختبارات التفكير الرياضي، والبرمجة، والمنطق العام. يستخدم نفس بنية Qwen3-8B ولكن مع محول الرموز الخاص بـ DeepSeek-R1-0528.",
"deepseek-ai/DeepSeek-R1-0528.description": "يستفيد DeepSeek R1 من قدرات حوسبة إضافية وتحسينات خوارزمية بعد التدريب لتعزيز قدرات التفكير. يحقق أداءً قويًا في اختبارات الرياضيات، والبرمجة، والمنطق العام، ويقترب من نماذج رائدة مثل o3 وGemini 2.5 Pro.",
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "تستخدم نماذج DeepSeek-R1 المستخلصة التعلم المعزز وبيانات البداية الباردة لتحسين التفكير وتحديد معايير جديدة للنماذج المفتوحة متعددة المهام.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "تستخدم نماذج DeepSeek-R1 المستخلصة التعلم المعزز وبيانات البداية الباردة لتحسين التفكير وتحديد معايير جديدة للنماذج المفتوحة متعددة المهام.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "تستخدم نماذج DeepSeek-R1 المستخلصة التعلم المعزز وبيانات البداية الباردة لتحسين التفكير وتحديد معايير جديدة للنماذج المفتوحة متعددة المهام.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "تم استخلاص DeepSeek-R1-Distill-Qwen-32B من Qwen2.5-32B وتم تحسينه باستخدام 800 ألف عينة مختارة من DeepSeek-R1. يتميز في الرياضيات، والبرمجة، والتفكير، ويحقق نتائج قوية في AIME 2024، وMATH-500 (بدقة 94.3٪)، وGPQA Diamond.",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "تم استخلاص DeepSeek-R1-Distill-Qwen-7B من Qwen2.5-Math-7B وتم تحسينه باستخدام 800 ألف عينة مختارة من DeepSeek-R1. يحقق أداءً قويًا بنسبة 92.8٪ في MATH-500، و55.5٪ في AIME 2024، وتصنيف 1189 في CodeForces لنموذج بحجم 7B.",
"deepseek-ai/DeepSeek-R1.description": "يعزز DeepSeek-R1 قدرات التفكير باستخدام التعلم المعزز وبيانات البداية الباردة، ويحدد معايير جديدة للنماذج المفتوحة متعددة المهام متفوقًا على OpenAI-o1-mini.",
"deepseek-ai/DeepSeek-V2.5.description": "يعمل DeepSeek-V2.5 على ترقية DeepSeek-V2-Chat وDeepSeek-Coder-V2-Instruct، ويمزج بين القدرات العامة والبرمجية. يحسن الكتابة واتباع التعليمات لمواءمة التفضيلات بشكل أفضل، ويظهر تحسنًا ملحوظًا في AlpacaEval 2.0 وArenaHard وAlignBench وMT-Bench.",
"deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus هو إصدار محدث من V3.1 كنموذج وكيل هجين. يعالج المشكلات التي أبلغ عنها المستخدمون ويحسن الاستقرار واتساق اللغة ويقلل من الخلط بين الصينية/الإنجليزية والرموز غير الطبيعية. يدمج أوضاع التفكير وغير التفكير مع قوالب المحادثة للتبديل المرن. كما يعزز أداء وكلاء الكود والبحث لاستخدام الأدوات بشكل أكثر موثوقية وتنفيذ المهام متعددة الخطوات.",
"deepseek-ai/DeepSeek-V3.1.description": "يستخدم DeepSeek V3.1 بنية تفكير هجينة ويدعم أوضاع التفكير وغير التفكير.",
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek V3.2 Exp يستخدم بنية تفكير هجينة ويدعم أوضاع التفكير وغير التفكير.",
"deepseek-ai/DeepSeek-V3.2.description": "DeepSeek-V3.2 هو نموذج يجمع بين الكفاءة الحسابية العالية وأداء التفكير والوكيل الممتاز. يعتمد نهجه على ثلاثة اختراقات تكنولوجية رئيسية: DeepSeek Sparse Attention (DSA)، وهي آلية انتباه فعالة تقلل بشكل كبير من التعقيد الحسابي مع الحفاظ على أداء النموذج، ومُحسنة خصيصًا للسيناريوهات ذات السياق الطويل؛ إطار عمل للتعلم المعزز القابل للتوسع يمكن من خلاله أن ينافس أداء النموذج GPT-5، مع نسخته عالية الحوسبة التي تضاهي Gemini-3.0-Pro في قدرات التفكير؛ وخط أنابيب واسع النطاق لتوليف مهام الوكيل يهدف إلى دمج قدرات التفكير في سيناريوهات استخدام الأدوات، مما يحسن اتباع التعليمات والتعميم في البيئات التفاعلية المعقدة. حقق النموذج أداءً متميزًا في الأولمبياد الدولي للرياضيات (IMO) وأولمبياد المعلوماتية الدولي (IOI) لعام 2025.",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 هو نموذج MoE يحتوي على 671 مليار معلمة، يستخدم MLA وDeepSeekMoE مع توازن تحميل خالٍ من الفقدان لتدريب واستدلال فعال. تم تدريبه مسبقًا على 14.8 تريليون رمز عالي الجودة مع SFT وRL، ويتفوق على النماذج المفتوحة الأخرى ويقترب من النماذج المغلقة الرائدة.",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) هو نموذج مبتكر يوفر فهمًا عميقًا للغة وتفاعلًا ذكيًا.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 هو نموذج استدلال من الجيل التالي يتميز بقدرات استدلال معقدة وسلسلة التفكير.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 هو نموذج رؤية-لغة MoE يعتمد على DeepSeekMoE-27B مع تنشيط متفرق، ويحقق أداءً قويًا باستخدام 4.5 مليار معلمة نشطة فقط. يتميز في الأسئلة البصرية، وOCR، وفهم المستندات/الجداول/المخططات، والتأريض البصري.",
"deepseek-chat.description": "DeepSeek V3.2 يوازن بين التفكير وطول المخرجات لمهام الأسئلة اليومية ووكلاء المهام. تصل المعايير العامة إلى مستويات GPT-5، وهو الأول في دمج التفكير في استخدام الأدوات، مما يؤدي إلى تقييمات وكلاء مفتوحة المصدر.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
"deepseek-ocr.description": "DeepSeek-OCR هو نموذج رؤية-لغة من DeepSeek AI يركز على OCR و\"الضغط البصري السياقي\". يستكشف ضغط المعلومات السياقية من الصور، ويعالج المستندات بكفاءة، ويحولها إلى تنسيقات نصية منظمة مثل Markdown. يتعرف بدقة على النصوص في الصور، مما يجعله مثاليًا لتحويل المستندات إلى صيغة رقمية، واستخراج النصوص، والمعالجة المنظمة.",
"deepseek-r1-0528.description": "نموذج كامل بسعة 685 مليار تم إصداره في 28 مايو 2025. يستخدم DeepSeek-R1 التعلم المعزز واسع النطاق بعد التدريب، مما يعزز التفكير بشكل كبير باستخدام بيانات معنونة قليلة، ويؤدي أداءً قويًا في الرياضيات، والبرمجة، والتفكير باللغة الطبيعية.",
"deepseek-r1-250528.description": "DeepSeek R1 250528 هو النموذج الكامل للتفكير من DeepSeek-R1 للمهام الرياضية والمنطقية الصعبة.",
"deepseek-r1-70b-fast-online.description": "إصدار سريع من DeepSeek R1 70B مع بحث ويب في الوقت الحقيقي، يوفر استجابات أسرع مع الحفاظ على الأداء.",
"deepseek-r1-70b-online.description": "الإصدار القياسي من DeepSeek R1 70B مع بحث ويب في الوقت الحقيقي، مناسب للدردشة والمهام النصية المحدثة.",
"deepseek-r1-distill-llama-70b.description": "يجمع DeepSeek R1 Distill Llama 70B بين تفكير R1 ونظام Llama البيئي.",
"deepseek-r1-distill-llama-8b.description": "تم استخلاص DeepSeek-R1-Distill-Llama-8B من Llama-3.1-8B باستخدام مخرجات DeepSeek R1.",
"deepseek-r1-distill-llama.description": "تم استخلاص deepseek-r1-distill-llama من DeepSeek-R1 على Llama.",
"deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B هو نموذج مستخلص من R1 يعتمد على Qianfan-70B بقيمة عالية.",
"deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B هو نموذج مستخلص من R1 يعتمد على Qianfan-8B للتطبيقات الصغيرة والمتوسطة.",
"deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B هو نموذج مستخلص من R1 يعتمد على Llama-70B.",
"deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B هو نموذج مستخلص فائق الخفة للبيئات ذات الموارد المنخفضة جدًا.",
"deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B هو نموذج مستخلص متوسط الحجم للنشر في سيناريوهات متعددة.",
"deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B هو نموذج مستخلص من R1 يعتمد على Qwen-32B، يوازن بين الأداء والتكلفة.",
"deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B هو نموذج مستخلص خفيف الوزن للبيئات الطرفية والمؤسسات الخاصة.",
"deepseek-r1-distill-qwen.description": "تم استخلاص deepseek-r1-distill-qwen من DeepSeek-R1 على Qwen.",
"deepseek-r1-fast-online.description": "الإصدار الكامل السريع من DeepSeek R1 مع بحث ويب في الوقت الحقيقي، يجمع بين قدرات بحجم 671B واستجابة أسرع.",
"deepseek-r1-online.description": "الإصدار الكامل من DeepSeek R1 مع 671 مليار معلمة وبحث ويب في الوقت الحقيقي، يوفر فهمًا وتوليدًا أقوى.",
"deepseek-r1.description": "يستخدم DeepSeek-R1 بيانات البداية الباردة قبل التعلم المعزز ويؤدي أداءً مماثلًا لـ OpenAI-o1 في الرياضيات، والبرمجة، والتفكير.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking هو نموذج تفكير عميق يولد سلسلة من الأفكار قبل المخرجات لتحقيق دقة أعلى، مع نتائج تنافسية عالية وتفكير مشابه لـ Gemini-3.0-Pro.",
"deepseek-v2.description": "DeepSeek V2 هو نموذج MoE فعال لمعالجة منخفضة التكلفة.",
"deepseek-v2:236b.description": "DeepSeek V2 236B هو نموذج DeepSeek الموجه للبرمجة مع قدرات قوية في توليد الكود.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 هو نموذج MoE يحتوي على 671 مليار معلمة يتميز بقوة في البرمجة، والقدرات التقنية، وفهم السياق، والتعامل مع النصوص الطويلة.",
"deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus هو نموذج لغوي كبير محسّن للأجهزة الطرفية، مصمم خصيصًا لأجهزة الطرفية.",
"deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 هو النموذج العميق للتفكير المقابل لإصدار Terminus، مصمم للاستدلال عالي الأداء.",
"deepseek-v3.1.description": "DeepSeek-V3.1 هو نموذج استدلال هجين جديد من DeepSeek، يدعم أوضاع التفكير وغير التفكير، ويوفر كفاءة تفكير أعلى من DeepSeek-R1-0528. التحسينات بعد التدريب تعزز بشكل كبير استخدام أدوات الوكلاء وأداء المهام. يدعم نافذة سياق 128k وما يصل إلى 64k من الرموز الناتجة.",
"deepseek-v3.1:671b.description": "DeepSeek V3.1 هو نموذج استدلال من الجيل التالي مع تحسينات في الاستدلال المعقد وسلسلة الأفكار، مناسب للمهام التي تتطلب تحليلاً عميقًا.",
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp يقدم انتباهاً متفرقاً لتحسين كفاءة التدريب والاستدلال على النصوص الطويلة، بسعر أقل من deepseek-v3.1.",
"deepseek-v3.2-speciale.description": "في المهام شديدة التعقيد، يتفوق نموذج Speciale بشكل كبير على النسخة القياسية، ولكنه يستهلك عددًا كبيرًا من الرموز ويتكبد تكاليف أعلى. حاليًا، يتم استخدام DeepSeek-V3.2-Speciale للأبحاث فقط، ولا يدعم استدعاء الأدوات، ولم يتم تحسينه بشكل خاص للمحادثات اليومية أو مهام الكتابة.",
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think هو نموذج تفكير عميق كامل يتميز باستدلال طويل السلسلة أقوى.",
"deepseek-v3.2.description": "DeepSeek-V3.2 هو أول نموذج استدلال هجين من DeepSeek يدمج التفكير في استخدام الأدوات. يستخدم بنية فعالة لتقليل الحسابات، وتعلم تقوية واسع النطاق لتعزيز القدرات، وبيانات مهام تركيبية ضخمة لتعزيز التعميم. يجمع بين هذه العناصر الثلاثة لتحقيق أداء مماثل لـ GPT-5-High، مع تقليل كبير في طول المخرجات، مما يقلل من عبء الحوسبة وأوقات انتظار المستخدمين.",
"deepseek-v3.description": "DeepSeek-V3 هو نموذج MoE قوي بإجمالي 671 مليار معلمة و37 مليار معلمة نشطة لكل رمز.",
"deepseek-vl2-small.description": "DeepSeek VL2 Small هو إصدار متعدد الوسائط خفيف الوزن للاستخدام في البيئات ذات الموارد المحدودة أو التزامن العالي.",
"deepseek-vl2.description": "DeepSeek VL2 هو نموذج متعدد الوسائط لفهم النصوص والصور والإجابة البصرية الدقيقة.",
"deepseek/deepseek-chat-v3-0324.description": "DeepSeek V3 هو نموذج MoE يحتوي على 685 مليار معلمة، وهو أحدث إصدار من سلسلة دردشة DeepSeek الرائدة.\n\nيعتمد على [DeepSeek V3](/deepseek/deepseek-chat-v3) ويؤدي أداءً قويًا عبر المهام.",
"deepseek/deepseek-chat-v3-0324:free.description": "DeepSeek V3 هو نموذج MoE يحتوي على 685 مليار معلمة، وهو أحدث إصدار من سلسلة دردشة DeepSeek الرائدة.\n\nيعتمد على [DeepSeek V3](/deepseek/deepseek-chat-v3) ويؤدي أداءً قويًا عبر المهام.",
"deepseek/deepseek-chat-v3.1.description": "DeepSeek-V3.1 هو نموذج استدلال هجين طويل السياق من DeepSeek، يدعم أوضاع التفكير وغير التفكير ودمج الأدوات.",
"deepseek/deepseek-chat.description": "DeepSeek-V3 هو نموذج استدلال هجين عالي الأداء من DeepSeek للمهام المعقدة ودمج الأدوات.",
"deepseek/deepseek-math-v2.description": "DeepSeek Math V2 هو نموذج حقق تقدمًا كبيرًا في قدرات الاستدلال الرياضي. تكمن ابتكاره الأساسي في آلية التدريب \"التحقق الذاتي\"، وقد حصل على مستويات ميدالية ذهبية في العديد من المسابقات الرياضية العالمية.",
"deepseek/deepseek-r1-0528.description": "DeepSeek R1 0528 هو إصدار محدث يركز على الإتاحة المفتوحة والاستدلال الأعمق.",
"deepseek/deepseek-r1-0528:free.description": "يحسن DeepSeek-R1 الاستدلال بشكل كبير باستخدام بيانات معنونة قليلة، ويخرج سلسلة من الأفكار قبل الإجابة النهائية لتحسين الدقة.",
"deepseek/deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B هو نموذج LLM مكرر يعتمد على Llama 3.3 70B، تم تحسينه باستخدام مخرجات DeepSeek R1 لتحقيق أداء تنافسي مع النماذج الرائدة.",
"deepseek/deepseek-r1-distill-llama-8b.description": "DeepSeek R1 Distill Llama 8B هو نموذج LLM مكرر يعتمد على Llama-3.1-8B-Instruct، تم تدريبه باستخدام مخرجات DeepSeek R1.",
"deepseek/deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B هو نموذج LLM مكرر يعتمد على Qwen 2.5 14B، تم تدريبه باستخدام مخرجات DeepSeek R1. يتفوق على OpenAI o1-mini في العديد من المعايير، ويحقق نتائج رائدة بين النماذج الكثيفة.",
"deepseek/deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B هو نموذج LLM مكرر يعتمد على Qwen 2.5 32B، تم تدريبه باستخدام مخرجات DeepSeek R1. يتفوق على OpenAI o1-mini في العديد من المعايير، ويحقق نتائج رائدة بين النماذج الكثيفة.",
"deepseek/deepseek-r1.description": "تم تحديث DeepSeek R1 إلى DeepSeek-R1-0528. مع موارد حوسبة أكبر وتحسينات خوارزمية بعد التدريب، يعزز بشكل كبير عمق وقدرة الاستدلال. يؤدي أداءً قويًا في اختبارات الرياضيات، البرمجة، والمنطق العام، ويقترب من نماذج رائدة مثل o3 وGemini 2.5 Pro.",
"deepseek/deepseek-r1/community.description": "DeepSeek R1 هو أحدث نموذج مفتوح المصدر من فريق DeepSeek، يتميز بأداء استدلال قوي، خاصة في الرياضيات، البرمجة، ومهام التفكير، ويقارن بـ OpenAI o1.",
"deepseek/deepseek-r1:free.description": "يحسن DeepSeek-R1 الاستدلال بشكل كبير باستخدام بيانات معنونة قليلة، ويخرج سلسلة من الأفكار قبل الإجابة النهائية لتحسين الدقة.",
"deepseek/deepseek-reasoner.description": "DeepSeek-V3 Thinking (reasoner) هو نموذج استدلال تجريبي من DeepSeek، مناسب للمهام المعقدة.",
"deepseek/deepseek-v3.description": "نموذج لغوي عام سريع مع استدلال محسّن.",
"deepseek/deepseek-v3/community.description": "يُقدّم DeepSeek-V3 تقدمًا كبيرًا في سرعة الاستدلال مقارنة بالإصدارات السابقة. يحتل المرتبة الأولى بين النماذج مفتوحة المصدر ويضاهي أكثر النماذج المغلقة تقدمًا. يعتمد DeepSeek-V3 على آلية الانتباه الكامن متعدد الرؤوس (MLA) وبنية DeepSeekMoE، وكلاهما تم التحقق منه بالكامل في DeepSeek-V2. كما يُدخل استراتيجية مساعدة غير فقدية لتحقيق توازن في التحميل، وهدف تدريب على التنبؤ بعدة رموز لتعزيز الأداء.",
"deepseek_r1.description": "DeepSeek-R1 هو نموذج استدلال مدفوع بالتعلم المعزز يعالج مشكلات التكرار وقابلية القراءة. قبل تطبيق التعلم المعزز، يستخدم بيانات بداية باردة لتحسين أداء الاستدلال. يضاهي نموذج OpenAI-o1 في مهام الرياضيات والبرمجة والاستدلال، مع تدريب مصمم بعناية لتحسين النتائج العامة.",
"deepseek_r1_distill_llama_70b.description": "تم تقطير DeepSeek-R1-Distill-Llama-70B من Llama-3.3-70B-Instruct. كجزء من سلسلة DeepSeek-R1، تم ضبطه بدقة باستخدام عينات تم إنشاؤها بواسطة DeepSeek-R1، ويؤدي بقوة في مجالات الرياضيات والبرمجة والاستدلال.",
"deepseek_r1_distill_qwen_14b.description": "تم تقطير DeepSeek-R1-Distill-Qwen-14B من Qwen2.5-14B وتم ضبطه بدقة باستخدام 800 ألف عينة منسقة تم إنشاؤها بواسطة DeepSeek-R1، مما يوفر أداءً قويًا في الاستدلال.",
"deepseek_r1_distill_qwen_32b.description": "تم تقطير DeepSeek-R1-Distill-Qwen-32B من Qwen2.5-32B وتم ضبطه بدقة باستخدام 800 ألف عينة منسقة تم إنشاؤها بواسطة DeepSeek-R1، ويتفوق في مجالات الرياضيات والبرمجة والاستدلال.",
"devstral-2512.description": "Devstral 2 هو نموذج نصوص على مستوى المؤسسات يتميز باستخدام الأدوات لاستكشاف قواعد الأكواد، وتحرير ملفات متعددة، وتشغيل وكلاء هندسة البرمجيات.",
"devstral-2:123b.description": "يتفوق Devstral 2 123B في استخدام الأدوات لاستكشاف قواعد الشيفرة، وتحرير ملفات متعددة، ودعم وكلاء هندسة البرمجيات.",
"doubao-1.5-lite-32k.description": "Doubao-1.5-lite هو نموذج خفيف الوزن جديد يتميز بسرعة استجابة فائقة، ويقدم جودة عالية وأداء منخفض الكمون من الدرجة الأولى.",
"doubao-1.5-pro-256k.description": "Doubao-1.5-pro-256k هو ترقية شاملة لـ Doubao-1.5-Pro، حيث يحسن الأداء العام بنسبة 10٪. يدعم نافذة سياق بحجم 256k وما يصل إلى 12k من الرموز الناتجة، مما يوفر أداءً أعلى، وسياقًا أوسع، وقيمة قوية لحالات الاستخدام المتنوعة.",
"doubao-1.5-pro-32k.description": "Doubao-1.5-pro هو نموذج رائد من الجيل الجديد يتميز بترقيات شاملة، ويتفوق في المعرفة والبرمجة والاستدلال.",
"doubao-1.5-thinking-pro-m.description": "Doubao-1.5 هو نموذج جديد للاستدلال العميق (الإصدار m يدعم الاستدلال العميق متعدد الوسائط بشكل أصلي) ويتفوق في الرياضيات والبرمجة والاستدلال العلمي والمهام العامة مثل الكتابة الإبداعية. يحقق نتائج من الدرجة الأولى أو يقترب منها في معايير مثل AIME 2024 وCodeforces وGPQA. يدعم نافذة سياق بحجم 128k وما يصل إلى 16k من الرموز الناتجة.",
"doubao-1.5-thinking-pro.description": "Doubao-1.5 هو نموذج جديد للاستدلال العميق يتفوق في الرياضيات والبرمجة والاستدلال العلمي والمهام العامة مثل الكتابة الإبداعية. يحقق نتائج من الدرجة الأولى أو يقترب منها في معايير مثل AIME 2024 وCodeforces وGPQA. يدعم نافذة سياق بحجم 128k وما يصل إلى 16k من الرموز الناتجة.",
"doubao-1.5-thinking-vision-pro.description": "نموذج جديد للاستدلال البصري العميق يتمتع بفهم واستدلال متعدد الوسائط أقوى، ويحقق نتائج رائدة في 37 من أصل 59 معيارًا عامًا.",
"doubao-1.5-ui-tars.description": "Doubao-1.5-UI-TARS هو نموذج وكيل يركز على واجهات المستخدم الرسومية (GUI) ويتفاعل بسلاسة مع الواجهات من خلال الإدراك البشري، والاستدلال، والعمل.",
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite هو نموذج متعدد الوسائط مطور يدعم الصور بأي دقة ونسب أبعاد متطرفة، مما يعزز الاستدلال البصري، والتعرف على المستندات، وفهم التفاصيل، واتباع التعليمات. يدعم نافذة سياق بحجم 128k وما يصل إلى 16k من الرموز الناتجة.",
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro هو نموذج متعدد الوسائط مطور يدعم الصور بأي دقة ونسب أبعاد متطرفة، مما يعزز الاستدلال البصري، والتعرف على المستندات، وفهم التفاصيل، واتباع التعليمات.",
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro هو نموذج متعدد الوسائط مطور يدعم الصور بأي دقة ونسب أبعاد متطرفة، مما يعزز الاستدلال البصري، والتعرف على المستندات، وفهم التفاصيل، واتباع التعليمات.",
"doubao-lite-32k.description": "استجابة فائقة السرعة مع قيمة أفضل، توفر خيارات أكثر مرونة عبر السيناريوهات. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق بحجم 32k.",
"doubao-pro-32k.description": "أفضل نموذج رائد للأداء في المهام المعقدة، مع نتائج قوية في الأسئلة المرجعية، والتلخيص، والإبداع، وتصنيف النصوص، والمحاكاة. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق بحجم 32k.",
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash هو نموذج استدلال عميق متعدد الوسائط فائق السرعة بزمن معالجة منخفض يصل إلى 10 مللي ثانية. يدعم النصوص والرؤية، ويتفوق على النموذج الخفيف السابق في فهم النصوص، ويضاهي النماذج الاحترافية المنافسة في الرؤية. يدعم نافذة سياق بحجم 256k وما يصل إلى 16k من الرموز الناتجة.",
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite هو نموذج استدلال عميق متعدد الوسائط جديد مع جهد استدلال قابل للتعديل (أدنى، منخفض، متوسط، عالٍ)، يوفر قيمة أفضل وخيارًا قويًا للمهام الشائعة، مع نافذة سياق تصل إلى 256k.",
"doubao-seed-1.6-thinking.description": "يعزز Doubao-Seed-1.6-thinking قدرات الاستدلال بشكل كبير، ويحسن القدرات الأساسية في البرمجة والرياضيات والمنطق مقارنة بـ Doubao-1.5-thinking-pro، مع إضافة فهم بصري. يدعم نافذة سياق بحجم 256k وما يصل إلى 16k من الرموز الناتجة.",
"doubao-seed-1.6-vision.description": "Doubao-Seed-1.6-vision هو نموذج استدلال بصري عميق يوفر فهمًا واستدلالًا متعدد الوسائط أقوى للتعليم، ومراجعة الصور، والتفتيش/الأمن، والبحث الذكي. يدعم نافذة سياق بحجم 256k وما يصل إلى 64k من الرموز الناتجة.",
"doubao-seed-1.6.description": "Doubao-Seed-1.6 هو نموذج استدلال عميق متعدد الوسائط جديد يدعم أوضاع التفكير التلقائي، والتفكير، وعدم التفكير. في وضع عدم التفكير، يتفوق بشكل كبير على Doubao-1.5-pro/250115. يدعم نافذة سياق بحجم 256k وما يصل إلى 16k من الرموز الناتجة.",
"doubao-seed-1.8.description": "Doubao-Seed-1.8 يتمتع بفهم متعدد الوسائط أقوى وقدرات وكيل متقدمة، ويدعم إدخال النصوص/الصور/الفيديو وتخزين السياق المؤقت، ويقدم أداءً ممتازًا في المهام المعقدة.",
"doubao-seed-2.0-code.description": "Doubao-Seed-2.0-code مُحسن بشكل عميق للبرمجة الوكيلية، يدعم المدخلات متعددة الوسائط ونافذة سياق تصل إلى 256k، مناسب للبرمجة وفهم الرؤية وتدفقات عمل الوكيل.",
"doubao-seed-2.0-lite.description": "Doubao-Seed-2.0-lite هو نموذج جديد للتفكير العميق متعدد الوسائط يقدم قيمة أفضل وخيار قوي للمهام الشائعة، مع نافذة سياق تصل إلى 256k.",
"doubao-seed-2.0-mini.description": "Doubao-Seed-2.0-mini هو نموذج خفيف الوزن مع استجابة سريعة وأداء عالي، مناسب للمهام الصغيرة وسيناريوهات التزامن العالي.",
"doubao-seed-2.0-pro.description": "Doubao-Seed-2.0-pro هو النموذج العام الرائد من ByteDance، مع قفزات شاملة في تخطيط وتنفيذ المهام المعقدة.",
"doubao-seed-code.description": "Doubao-Seed-Code مُحسَّن بعمق للبرمجة الوكيلة، ويدعم إدخالات متعددة الوسائط (نص/صورة/فيديو) ونافذة سياق بحجم 256k، ومتوافق مع واجهة Anthropic API، ومناسب للبرمجة، وفهم الرؤية، وسير عمل الوكلاء.",
"doubao-seedance-1-0-lite-i2v-250428.description": "جودة توليد مستقرة مع فعالية عالية من حيث التكلفة، قادرة على إنشاء مقاطع فيديو من الإطار الأول، الإطار الأول والأخير، أو الصور المرجعية.",
"doubao-seedance-1-0-lite-t2v-250428.description": "جودة توليد مستقرة مع فعالية عالية من حيث التكلفة، قادرة على إنشاء مقاطع فيديو بناءً على تعليمات نصية.",
"doubao-seedance-1-0-pro-250528.description": "Seedance 1.0 Pro هو نموذج أساسي لتوليد الفيديو يدعم سرد القصص متعدد اللقطات. يقدم أداءً قويًا عبر أبعاد متعددة. يحقق النموذج تقدمًا في فهم المعاني واتباع التعليمات، مما يمكنه من إنشاء مقاطع فيديو عالية الوضوح بدقة 1080P مع حركة سلسة، تفاصيل غنية، أنماط متنوعة، وجماليات بصرية بمستوى سينمائي.",
"doubao-seedance-1-0-pro-fast-251015.description": "Seedance 1.0 Pro Fast هو نموذج شامل مصمم لتقليل التكلفة مع تحسين الأداء، محققًا توازنًا ممتازًا بين جودة توليد الفيديو، السرعة، والسعر. يرث النموذج نقاط القوة الأساسية لـ Seedance 1.0 Pro، بينما يقدم سرعات توليد أسرع وتسعيرًا أكثر تنافسية، مما يوفر للمبدعين تحسينًا مزدوجًا للكفاءة والتكلفة.",
"doubao-seedance-1-5-pro-251215.description": "Seedance 1.5 Pro من ByteDance يدعم تحويل النص إلى فيديو، الصورة إلى فيديو (الإطار الأول، الإطار الأول + الأخير)، وتوليد الصوت المتزامن مع المرئيات.",
"doubao-seededit-3-0-i2i-250628.description": "نموذج الصور Doubao من ByteDance Seed يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يدعم تحرير الصور الموجه بالنص، مع أحجام إخراج تتراوح بين 512 و1536 على الجانب الطويل.",
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يُولّد الصور من التعليمات النصية.",
"doubao-seedream-4-0-250828.description": "Seedream 4.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يُولّد الصور من التعليمات النصية.",
"doubao-seedream-4-5-251128.description": "Seedream 4.5 هو أحدث نموذج متعدد الوسائط من ByteDance، يدمج قدرات تحويل النص إلى صورة، والصورة إلى صورة، وتوليد الصور بالجملة، مع دمج الفهم العام وقدرات الاستدلال. مقارنة بالإصدار السابق 4.0، يقدم جودة توليد محسّنة بشكل كبير، مع تحسين تناسق التحرير ودمج الصور المتعددة. يوفر تحكمًا أكثر دقة في التفاصيل البصرية، مما يجعل النصوص الصغيرة والوجوه الصغيرة أكثر طبيعية، ويحقق تخطيطًا وألوانًا أكثر انسجامًا، مما يعزز الجماليات العامة.",
"doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite هو أحدث نموذج لتوليد الصور من ByteDance. لأول مرة، يدمج قدرات الاسترجاع عبر الإنترنت، مما يسمح له بتضمين معلومات الويب في الوقت الفعلي وتعزيز حداثة الصور المولدة. كما تم ترقية ذكاء النموذج، مما يمكنه من تفسير التعليمات المعقدة والمحتوى البصري بدقة. بالإضافة إلى ذلك، يقدم تغطية محسّنة للمعرفة العالمية، وتناسقًا مرجعيًا، وجودة توليد في السيناريوهات المهنية، مما يلبي بشكل أفضل احتياجات الإبداع البصري على مستوى المؤسسات.",
"emohaa.description": "Emohaa هو نموذج للصحة النفسية يتمتع بقدرات استشارية احترافية لمساعدة المستخدمين على فهم المشكلات العاطفية.",
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B هو نموذج مفتوح المصدر وخفيف الوزن، مصمم للنشر المحلي والمخصص.",
"ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking هو نموذج نصي MoE (مزيج من الخبراء) مدرب بعديًا مع إجمالي 21 مليار معلمة و3 مليارات معلمة نشطة، يقدم جودة وعمق استدلال محسّنة بشكل كبير.",
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B هو نموذج مفتوح المصدر ذو عدد كبير من المعلمات، يتميز بفهم وتوليد أقوى.",
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B هو نموذج MoE فائق الحجم من Baidu ERNIE يتمتع بقدرات استدلال ممتازة.",
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview هو نموذج معاينة بسياق 8K لتقييم أداء ERNIE 4.5.",
"ernie-4.5-turbo-128k-preview.description": "معاينة ERNIE 4.5 Turbo 128K بقدرات على مستوى الإصدار، مناسبة للتكامل والاختبار التجريبي.",
"ernie-4.5-turbo-128k.description": "ERNIE 4.5 Turbo 128K هو نموذج عام عالي الأداء يدعم تعزيز البحث واستدعاء الأدوات لسيناريوهات الأسئلة والأجوبة، والبرمجة، والوكلاء.",
"ernie-4.5-turbo-32k.description": "ERNIE 4.5 Turbo 32K هو إصدار متوسط الطول من السياق مخصص للأسئلة والأجوبة، واسترجاع قواعد المعرفة، والحوار متعدد الأدوار.",
"ernie-4.5-turbo-latest.description": "أحدث إصدار من ERNIE 4.5 Turbo بأداء محسن شامل، مثالي كنموذج إنتاج رئيسي.",
"ernie-4.5-turbo-vl-32k-preview.description": "معاينة ERNIE 4.5 Turbo VL 32K هو نموذج متعدد الوسائط بسياق طويل لتقييم قدرات الرؤية.",
"ernie-4.5-turbo-vl-32k.description": "ERNIE 4.5 Turbo VL 32K هو إصدار متعدد الوسائط متوسط الطول لفهم المستندات الطويلة والصور معًا.",
"ernie-4.5-turbo-vl-latest.description": "أحدث إصدار من ERNIE 4.5 Turbo VL متعدد الوسائط مع تحسينات في فهم الصور والنصوص والاستدلال.",
"ernie-4.5-turbo-vl-preview.description": "معاينة ERNIE 4.5 Turbo VL هو نموذج متعدد الوسائط لفهم وتوليد الصور والنصوص، مناسب لأسئلة وأجوبة بصرية وفهم المحتوى.",
"ernie-4.5-turbo-vl.description": "ERNIE 4.5 Turbo VL هو نموذج متعدد الوسائط ناضج لفهم الصور والنصوص في بيئات الإنتاج.",
"ernie-4.5-vl-28b-a3b.description": "ERNIE 4.5 VL 28B A3B هو نموذج مفتوح المصدر متعدد الوسائط لفهم الصور والنصوص والاستدلال.",
"ernie-5.0-thinking-latest.description": "Wenxin 5.0 Thinking هو نموذج رائد متعدد الوسائط أصلي يدعم النصوص، الصور، الصوت، والفيديو بشكل موحد. يوفر ترقيات شاملة للقدرات في الأسئلة المعقدة، الإبداع، وسيناريوهات الوكلاء.",
"ernie-5.0-thinking-preview.description": "معاينة Wenxin 5.0 Thinking هو نموذج رائد متعدد الوسائط أصلي يدعم النصوص، الصور، الصوت، والفيديو بشكل موحد. يوفر ترقيات شاملة للقدرات في الأسئلة المعقدة، الإبداع، وسيناريوهات الوكلاء.",
"ernie-char-8k.description": "ERNIE Character 8K هو نموذج حواري بشخصية مخصصة لبناء شخصيات IP والدردشة طويلة الأمد.",
"ernie-char-fiction-8k-preview.description": "معاينة ERNIE Character Fiction 8K هو نموذج لإنشاء الشخصيات والحبكات القصصية، مخصص لتقييم الميزات والاختبار.",
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K هو نموذج شخصيات للروايات وإنشاء الحبكات، مناسب لتوليد القصص الطويلة.",
"ernie-irag-edit.description": "ERNIE iRAG Edit هو نموذج لتحرير الصور يدعم المسح، وإعادة الرسم، وتوليد النسخ المتنوعة.",
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K هو نموذج خفيف الوزن وعالي الأداء للسيناريوهات الحساسة للتكلفة والزمن.",
"ernie-novel-8k.description": "ERNIE Novel 8K مصمم خصيصًا للروايات الطويلة وحبكات IP مع سرد متعدد الشخصيات.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K هو نموذج عالي التوازي وعالي القيمة للخدمات عبر الإنترنت واسعة النطاق وتطبيقات المؤسسات.",
"ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview هو نموذج تفكير سريع مع سياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K هو نموذج تفكير سريع بسياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.",
"ernie-x1.1-preview.description": "معاينة ERNIE X1.1 هو نموذج تفكير مخصص للتقييم والاختبار.",
"ernie-x1.1.description": "ERNIE X1.1 هو نموذج تفكير تجريبي للتقييم والاختبار.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5، الذي تم تطويره بواسطة فريق ByteDance Seed، يدعم تحرير الصور المتعددة والتكوين. يتميز بتناسق الموضوع المحسن، اتباع التعليمات بدقة، فهم المنطق المكاني، التعبير الجمالي، تصميم الملصقات والشعارات مع تقديم نصوص وصور عالية الدقة.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، الذي تم تطويره بواسطة ByteDance Seed، يدعم إدخال النصوص والصور لإنشاء صور عالية الجودة وقابلة للتحكم بناءً على التعليمات.",
"fal-ai/flux-kontext/dev.description": "نموذج FLUX.1 يركز على تحرير الصور، ويدعم إدخال النصوص والصور.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] يقبل النصوص وصور مرجعية كمدخلات، مما يتيح تعديلات محلية مستهدفة وتحولات معقدة في المشهد العام.",
"fal-ai/flux/krea.description": "Flux Krea [dev] هو نموذج لتوليد الصور يتميز بميول جمالية نحو صور أكثر واقعية وطبيعية.",
"fal-ai/flux/schnell.description": "FLUX.1 [schnell] هو نموذج لتوليد الصور يحتوي على 12 مليار معلمة، مصمم لإنتاج صور عالية الجودة بسرعة.",
"fal-ai/hunyuan-image/v3.description": "نموذج قوي لتوليد الصور متعدد الوسائط أصلي.",
"fal-ai/imagen4/preview.description": "نموذج عالي الجودة لتوليد الصور من Google.",
"fal-ai/nano-banana.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google كفاءةً لتوليد وتحرير الصور من خلال المحادثة.",
"fal-ai/qwen-image-edit.description": "نموذج تحرير الصور الاحترافي من فريق Qwen، يدعم التعديلات الدلالية والمظهرية، تحرير النصوص الدقيقة باللغتين الصينية والإنجليزية، نقل الأسلوب، الدوران، والمزيد.",
"fal-ai/qwen-image.description": "نموذج قوي لإنشاء الصور من فريق Qwen يتميز بتقديم نصوص صينية قوية وأنماط بصرية متنوعة.",
"flux-1-schnell.description": "نموذج تحويل النص إلى صورة يحتوي على 12 مليار معلمة من Black Forest Labs يستخدم تقنيات تقطير الانتشار العدائي الكامن لتوليد صور عالية الجودة في 1-4 خطوات. ينافس البدائل المغلقة ومتاح بموجب ترخيص Apache-2.0 للاستخدام الشخصي والبحثي والتجاري.",
"flux-dev.description": "FLUX.1 [dev] هو نموذج مفتوح الأوزان ومقطر للاستخدام غير التجاري. يحافظ على جودة صور قريبة من المستوى الاحترافي واتباع التعليمات مع كفاءة تشغيل أعلى مقارنة بالنماذج القياسية من نفس الحجم.",
"flux-kontext-max.description": "توليد وتحرير صور سياقية متقدمة، تجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.",
"flux-kontext-pro.description": "توليد وتحرير صور سياقية متقدمة، تجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.",
"flux-merged.description": "FLUX.1 [merged] يجمع بين الميزات العميقة المستكشفة في \"DEV\" مع مزايا السرعة العالية لـ \"Schnell\"، مما يوسع حدود الأداء ويوسع التطبيقات.",
"flux-pro-1.1-ultra.description": "توليد صور بدقة فائقة تصل إلى 4 ميغابكسل، تنتج صورًا واضحة في غضون 10 ثوانٍ.",
"flux-pro-1.1.description": "نموذج توليد صور احترافي مطور يتميز بجودة صور ممتازة واتباع دقيق للأوامر.",
"flux-pro.description": "نموذج توليد صور تجاري من الدرجة الأولى بجودة صور لا مثيل لها ومخرجات متنوعة.",
"flux-schnell.description": "FLUX.1 [schnell] هو أكثر النماذج مفتوحة المصدر تقدمًا في توليد الصور بعدد خطوات قليلة، يتفوق على المنافسين المماثلين وحتى النماذج غير المقطرة القوية مثل Midjourney v6.0 و DALL-E 3 (HD). تم ضبطه بدقة للحفاظ على تنوع ما قبل التدريب، مما يحسن بشكل كبير من جودة الصور، واتباع التعليمات، وتنوع الحجم/النسبة، والتعامل مع الخطوط، وتنوع المخرجات.",
"flux.1-schnell.description": "FLUX.1-schnell هو نموذج عالي الأداء لتوليد الصور يدعم أنماطًا متعددة بسرعة.",
"gemini-1.0-pro-001.description": "Gemini 1.0 Pro 001 (Tuning) يوفر أداءً مستقرًا وقابلًا للضبط للمهام المعقدة.",
"gemini-1.0-pro-002.description": "Gemini 1.0 Pro 002 (Tuning) يوفر دعمًا متعدد الوسائط قويًا للمهام المعقدة.",
"gemini-1.0-pro-latest.description": "Gemini 1.0 Pro هو نموذج الذكاء الاصطناعي عالي الأداء من Google المصمم لتوسيع نطاق المهام.",
"gemini-1.5-flash-001.description": "Gemini 1.5 Flash 001 هو نموذج متعدد الوسائط فعال لتوسيع التطبيقات على نطاق واسع.",
"gemini-1.5-flash-002.description": "Gemini 1.5 Flash 002 هو نموذج متعدد الوسائط فعال مصمم للنشر الواسع.",
"gemini-1.5-flash-8b-exp-0924.description": "Gemini 1.5 Flash 8B 0924 هو أحدث نموذج تجريبي يحقق مكاسب ملحوظة في استخدامات النصوص والمتعددة الوسائط.",
"gemini-1.5-flash-8b-latest.description": "Gemini 1.5 Flash 8B هو نموذج متعدد الوسائط فعال مصمم للنشر الواسع.",
"gemini-1.5-flash-8b.description": "Gemini 1.5 Flash 8B هو نموذج متعدد الوسائط فعال لتوسيع التطبيقات على نطاق واسع.",
"gemini-1.5-flash-exp-0827.description": "Gemini 1.5 Flash 0827 يقدم معالجة متعددة الوسائط محسّنة للمهام المعقدة.",
"gemini-1.5-flash-latest.description": "Gemini 1.5 Flash هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط من Google يتميز بمعالجة سريعة ويدعم إدخال النصوص والصور والفيديو لتوسيع المهام بكفاءة.",
"gemini-1.5-pro-001.description": "Gemini 1.5 Pro 001 هو حل ذكاء اصطناعي متعدد الوسائط قابل للتوسع للمهام المعقدة.",
"gemini-1.5-pro-002.description": "Gemini 1.5 Pro 002 هو أحدث نموذج جاهز للإنتاج بجودة مخرجات أعلى، خاصة في الرياضيات والسياقات الطويلة والمهام البصرية.",
"gemini-1.5-pro-exp-0801.description": "Gemini 1.5 Pro 0801 يوفر معالجة متعددة الوسائط قوية مع مرونة أكبر لتطوير التطبيقات.",
"gemini-1.5-pro-exp-0827.description": "Gemini 1.5 Pro 0827 يطبق أحدث التحسينات لمعالجة متعددة الوسائط أكثر كفاءة.",
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro يدعم ما يصل إلى 2 مليون رمز، وهو نموذج متعدد الوسائط متوسط الحجم مثالي للمهام المعقدة.",
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash يقدم ميزات الجيل التالي بما في ذلك السرعة الاستثنائية، واستخدام الأدوات الأصلية، والتوليد متعدد الوسائط، وسياق يصل إلى مليون رمز.",
"gemini-2.0-flash-exp-image-generation.description": "نموذج تجريبي من Gemini 2.0 Flash يدعم توليد الصور.",
"gemini-2.0-flash-lite-001.description": "إصدار من Gemini 2.0 Flash محسن لتقليل التكلفة وتقليل التأخير.",
"gemini-2.0-flash-lite.description": "إصدار من Gemini 2.0 Flash محسن لتقليل التكلفة وتقليل التأخير.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash يقدم ميزات الجيل التالي بما في ذلك السرعة الاستثنائية، واستخدام الأدوات الأصلية، والتوليد متعدد الوسائط، وسياق يصل إلى مليون رمز.",
"gemini-2.5-flash-image.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google متعددة الوسائط كفاءة، يتيح توليد الصور وتحريرها عبر المحادثة.",
"gemini-2.5-flash-image:image.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google متعددة الوسائط كفاءة، يتيح توليد الصور وتحريرها عبر المحادثة.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview هو أصغر نموذج من Google وأفضلها من حيث القيمة، مصمم للاستخدام واسع النطاق.",
"gemini-2.5-flash-lite-preview-09-2025.description": "إصدار معاينة (25 سبتمبر 2025) من Gemini 2.5 Flash-Lite",
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite هو أصغر نموذج من Google وأفضلها من حيث القيمة، مصمم للاستخدام واسع النطاق.",
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview هو أفضل نموذج من Google من حيث القيمة مع قدرات كاملة.",
"gemini-2.5-flash.description": "Gemini 2.5 Flash هو أفضل نموذج من Google من حيث القيمة مع قدرات كاملة.",
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview هو أكثر نماذج Google تقدمًا في الاستدلال، قادر على تحليل الشيفرات والرياضيات ومشاكل العلوم، وتحليل مجموعات البيانات الكبيرة وقواعد الشيفرة والمستندات ضمن سياق طويل.",
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview هو أكثر نماذج Google تقدمًا في الاستدلال، قادر على تحليل الشيفرات والرياضيات ومشاكل العلوم، وتحليل مجموعات البيانات الكبيرة وقواعد الشيفرة والمستندات ضمن سياق طويل.",
"gemini-2.5-pro-preview-06-05.description": "Gemini 2.5 Pro Preview هو أكثر نماذج Google تقدمًا في الاستدلال، قادر على تحليل الشيفرات والرياضيات ومشاكل العلوم، وتحليل مجموعات البيانات الكبيرة وقواعد الشيفرة والمستندات ضمن سياق طويل.",
"gemini-2.5-pro.description": "Gemini 2.5 Pro هو النموذج الرائد من Google في مجال الاستدلال، يدعم السياق الطويل للمهام المعقدة.",
"gemini-3-flash-preview.description": "Gemini 3 Flash هو أذكى نموذج تم تصميمه للسرعة، يجمع بين الذكاء المتقدم وأساس بحث ممتاز.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم المحادثة متعددة الوسائط.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج إنشاء الصور من Google ويدعم أيضًا الدردشة متعددة الوسائط.",
"gemini-3-pro-preview.description": "Gemini 3 Pro هو أقوى نموذج من Google للوكيل الذكي والبرمجة الإبداعية، يقدم تفاعلاً أعمق وصورًا أغنى مع استدلال متقدم.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) يقدم جودة صور احترافية بسرعة فائقة مع دعم الدردشة متعددة الوسائط.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) يقدم جودة صور بمستوى احترافي بسرعة Flash مع دعم الدردشة متعددة الوسائط.",
"gemini-3.1-flash-lite-preview.description": "Gemini 3.1 Flash-Lite Preview هو النموذج الأكثر كفاءة من حيث التكلفة من Google، مُحسّن للمهام الوكيلة ذات الحجم الكبير، الترجمة، ومعالجة البيانات.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview يحسن من Gemini 3 Pro مع قدرات استدلال محسّنة ويضيف دعم مستوى التفكير المتوسط.",
"gemini-flash-latest.description": "أحدث إصدار من Gemini Flash",
"gemini-flash-lite-latest.description": "أحدث إصدار من Gemini Flash-Lite",
"gemini-pro-latest.description": "أحدث إصدار من Gemini Pro",
"gemma-7b-it.description": "Gemma 7B فعال من حيث التكلفة للمهام الصغيرة والمتوسطة.",
"gemma2-9b-it.description": "Gemma 2 9B مُحسّن للمهام المحددة وتكامل الأدوات.",
"gemma2.description": "Gemma 2 هو نموذج فعال من Google يغطي حالات الاستخدام من التطبيقات الصغيرة إلى معالجة البيانات المعقدة.",
"gemma2:27b.description": "Gemma 2 هو نموذج فعال من Google يغطي حالات الاستخدام من التطبيقات الصغيرة إلى معالجة البيانات المعقدة.",
"gemma2:2b.description": "Gemma 2 هو نموذج فعال من Google يغطي حالات الاستخدام من التطبيقات الصغيرة إلى معالجة البيانات المعقدة.",
"generalv3.5.description": "Spark Max هو الإصدار الأكثر تكاملًا، يدعم البحث عبر الإنترنت والعديد من الإضافات المدمجة. قدراته الأساسية المحسّنة، وأدوار النظام، واستدعاء الوظائف توفر أداءً ممتازًا في سيناريوهات التطبيقات المعقدة.",
"generalv3.description": "Spark Pro هو نموذج لغوي عالي الأداء مُحسّن للمجالات المهنية، يركز على الرياضيات، والبرمجة، والرعاية الصحية، والتعليم، مع دعم البحث عبر الإنترنت والإضافات المدمجة مثل الطقس والتاريخ. يقدم أداءً قويًا وكفاءة في أسئلة المعرفة المعقدة، وفهم اللغة، وإنشاء النصوص المتقدمة، مما يجعله خيارًا مثاليًا للاستخدام المهني.",
"glm-4-0520.description": "GLM-4-0520 هو أحدث إصدار من النموذج، مصمم للمهام المعقدة والمتنوعة بأداء ممتاز.",
"glm-4-7.description": "GLM-4.7 هو النموذج الرائد الأحدث من Zhipu AI. يعزز قدرات البرمجة، وتخطيط المهام طويلة الأمد، والتعاون مع الأدوات في سيناريوهات البرمجة بالوكيل، محققًا أداءً رائدًا بين النماذج مفتوحة المصدر في العديد من المعايير العامة. كما تم تحسين القدرات العامة، مع ردود أكثر طبيعية واختصارًا، وتجربة كتابة أكثر غمرًا. في المهام المعقدة، أصبح اتباع التعليمات أقوى أثناء استخدام الأدوات، وتم تحسين جمالية الواجهات وكفاءة إتمام المهام طويلة الأمد. • قدرات برمجية أقوى: تحسين كبير في البرمجة متعددة اللغات وأداء الوكلاء الطرفيين؛ يمكن لـ GLM-4.7 الآن تنفيذ آلية \"فكر أولاً، ثم تصرف\" في أطر مثل Claude Code وKilo Code وTRAE وCline وRoo Code، مع أداء أكثر استقرارًا في المهام المعقدة. • تحسين جمالية الواجهات: تقدم ملحوظ في جودة توليد الواجهات، قادر على إنشاء مواقع إلكترونية وعروض تقديمية وملصقات بجاذبية بصرية أفضل. • قدرات أقوى في استدعاء الأدوات: يعزز GLM-4.7 قدرات استدعاء الأدوات، محققًا 67 نقطة في تقييم BrowseComp لمهام الويب؛ و84.7 نقطة في تقييم τ²-Bench لاستدعاء الأدوات التفاعلي، متفوقًا على Claude Sonnet 4.5 كأفضل نموذج مفتوح المصدر. • تحسين قدرات الاستدلال: تعزيز كبير في القدرات الرياضية والمنطقية، محققًا 42.8% في معيار HLE (\"امتحان البشرية الأخير\"), بزيادة 41% عن GLM-4.6، متفوقًا على GPT-5.1. • تعزيز القدرات العامة: محادثات GLM-4.7 أكثر اختصارًا وذكاءً وإنسانية؛ والكتابة ولعب الأدوار أكثر أدبية وغامرة.",
"glm-4-9b-chat.description": "GLM-4-9B-Chat يتميز بقوة في الدلالات، الرياضيات، الاستدلال، البرمجة، والمعرفة. كما يدعم تصفح الويب، تنفيذ الشيفرات، استدعاء الأدوات المخصصة، والاستدلال على النصوص الطويلة، مع دعم لـ 26 لغة منها اليابانية والكورية والألمانية.",
"glm-4-air-250414.description": "GLM-4-Air هو خيار عالي القيمة بأداء قريب من GLM-4، سرعة عالية، وتكلفة منخفضة.",
"glm-4-air.description": "GLM-4-Air هو خيار عالي القيمة بأداء قريب من GLM-4، سرعة عالية، وتكلفة منخفضة.",
"glm-4-airx.description": "GLM-4-AirX هو إصدار أكثر كفاءة من GLM-4-Air بسرعة استدلال تصل إلى 2.6 ضعف.",
"glm-4-alltools.description": "GLM-4-AllTools هو نموذج وكيل متعدد الاستخدامات محسن لتخطيط التعليمات المعقدة واستخدام الأدوات مثل تصفح الويب، شرح الشيفرات، وتوليد النصوص، مناسب لتنفيذ المهام المتعددة.",
"glm-4-flash-250414.description": "GLM-4-Flash مثالي للمهام البسيطة: الأسرع ومجاني.",
"glm-4-flash.description": "GLM-4-Flash مثالي للمهام البسيطة: الأسرع ومجاني.",
"glm-4-flashx.description": "GLM-4-FlashX هو إصدار محسّن من Flash مع استدلال فائق السرعة.",
"glm-4-long.description": "GLM-4-Long يدعم إدخالات طويلة جدًا لمهام الذاكرة ومعالجة المستندات واسعة النطاق.",
"glm-4-plus.description": "GLM-4-Plus هو نموذج رائد عالي الذكاء يتميز بقدرات قوية في التعامل مع النصوص الطويلة والمهام المعقدة، مع أداء عام مطور.",
"glm-4.1v-thinking-flash.description": "GLM-4.1V-Thinking هو أقوى نموذج VLM معروف بحجم ~10B، يغطي مهام متقدمة مثل فهم الفيديو، الأسئلة البصرية، حل المسائل، التعرف البصري، قراءة المستندات والمخططات، وكلاء واجهات المستخدم، برمجة الواجهات، والتأريض. يتفوق على Qwen2.5-VL-72B الأكبر بـ8 مرات في العديد من المهام. يستخدم استدلال سلسلة الأفكار لتحسين الدقة والثراء، متفوقًا على النماذج التقليدية غير المفكرة في النتائج والشرح.",
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking هو أقوى نموذج VLM معروف بحجم ~10B، يغطي مهام متقدمة مثل فهم الفيديو، الأسئلة البصرية، حل المسائل، التعرف البصري، قراءة المستندات والمخططات، وكلاء واجهات المستخدم، برمجة الواجهات، والتأريض. يتفوق على Qwen2.5-VL-72B الأكبر بـ8 مرات في العديد من المهام. يستخدم استدلال سلسلة الأفكار لتحسين الدقة والثراء، متفوقًا على النماذج التقليدية غير المفكرة في النتائج والشرح.",
"glm-4.5-air.description": "GLM-4.5 إصدار خفيف يوازن بين الأداء والتكلفة، مع أوضاع تفكير هجينة مرنة.",
"glm-4.5-airx.description": "GLM-4.5-Air إصدار سريع يوفر استجابات أسرع للاستخدام واسع النطاق وعالي السرعة.",
"glm-4.5-x.description": "GLM-4.5 إصدار سريع، يقدم أداءً قويًا مع سرعات توليد تصل إلى 100 رمز/ثانية.",
"glm-4.5.description": "نموذج Zhipu الرائد مع وضع تفكير قابل للتبديل، يقدم أداءً رائدًا مفتوح المصدر وسياق يصل إلى 128K.",
"glm-4.5v.description": "نموذج الرؤية والاستدلال من الجيل التالي من Zhipu بتقنية MoE، يحتوي على 106 مليار معلمة إجمالية و12 مليار نشطة، يحقق أداءً رائدًا بين النماذج متعددة الوسائط مفتوحة المصدر ذات الحجم المماثل في مهام الصور، الفيديو، فهم المستندات، ومهام واجهات المستخدم.",
"glm-4.6.description": "GLM-4.6 (355B) هو النموذج الرائد الأحدث من Zhipu، يتفوق بشكل كامل على النماذج السابقة في الترميز المتقدم، ومعالجة النصوص الطويلة، والاستدلال، وقدرات الوكلاء. يتماشى بشكل خاص مع Claude Sonnet 4 في قدرات البرمجة، مما يجعله النموذج الأفضل في الصين للترميز.",
"glm-4.6v-flash.description": "تمثل سلسلة GLM-4.6V تطورًا كبيرًا في عائلة GLM في الاتجاه متعدد الوسائط، وتشمل GLM-4.6V (الرائد)، GLM-4.6V-FlashX (خفيف الوزن وعالي السرعة)، وGLM-4.6V-Flash (مجاني بالكامل). توسع نافذة السياق أثناء وقت التدريب إلى 128 ألف رمز، وتحقق دقة فهم بصري رائدة على مستوى العالم عند مقاييس معلمات مماثلة، ولأول مرة، تدمج قدرات استدعاء الوظائف (تنفيذ الأدوات) بشكل أصلي في بنية النموذج البصري. يوحد هذا التصميم العملية من \"الإدراك البصري\" إلى \"الإجراءات القابلة للتنفيذ\"، مما يوفر أساسًا تقنيًا متسقًا للوكلاء متعدد الوسائط في سيناريوهات الإنتاج الواقعية.",
"glm-4.6v-flashx.description": "تمثل سلسلة GLM-4.6V تطورًا كبيرًا في عائلة GLM في الاتجاه متعدد الوسائط، وتشمل GLM-4.6V (الرائد)، GLM-4.6V-FlashX (خفيف الوزن وعالي السرعة)، وGLM-4.6V-Flash (مجاني بالكامل). توسع نافذة السياق أثناء وقت التدريب إلى 128 ألف رمز، وتحقق دقة فهم بصري رائدة على مستوى العالم عند مقاييس معلمات مماثلة، ولأول مرة، تدمج قدرات استدعاء الوظائف (تنفيذ الأدوات) بشكل أصلي في بنية النموذج البصري. يوحد هذا التصميم العملية من \"الإدراك البصري\" إلى \"الإجراءات القابلة للتنفيذ\"، مما يوفر أساسًا تقنيًا متسقًا للوكلاء متعدد الوسائط في سيناريوهات الإنتاج الواقعية.",
"glm-4.6v.description": "تمثل سلسلة GLM-4.6V تطورًا كبيرًا في عائلة GLM في الاتجاه متعدد الوسائط، وتشمل GLM-4.6V (الرائد)، GLM-4.6V-FlashX (خفيف الوزن وعالي السرعة)، وGLM-4.6V-Flash (مجاني بالكامل). توسع نافذة السياق أثناء وقت التدريب إلى 128 ألف رمز، وتحقق دقة فهم بصري رائدة على مستوى العالم عند مقاييس معلمات مماثلة، ولأول مرة، تدمج قدرات استدعاء الوظائف (تنفيذ الأدوات) بشكل أصلي في بنية النموذج البصري. يوحد هذا التصميم العملية من \"الإدراك البصري\" إلى \"الإجراءات القابلة للتنفيذ\"، مما يوفر أساسًا تقنيًا متسقًا للوكلاء متعدد الوسائط في سيناريوهات الإنتاج الواقعية.",
"glm-4.7-flash.description": "GLM-4.7-Flash، كنموذج SOTA بحجم 30 مليار، يقدم خيارًا جديدًا يوازن بين الأداء والكفاءة. يعزز قدرات البرمجة، وتخطيط المهام طويلة الأمد، والتعاون مع الأدوات في سيناريوهات البرمجة بالوكيل، محققًا أداءً رائدًا بين النماذج مفتوحة المصدر من نفس الحجم في العديد من المعايير الحالية. في تنفيذ المهام المعقدة، يتميز بامتثال أقوى للتعليمات أثناء استدعاء الأدوات، ويعزز جمالية الواجهات وكفاءة إتمام المهام طويلة الأمد.",
"glm-4.7-flashx.description": "GLM-4.7-Flash، كنموذج SOTA بحجم 30 مليار، يقدم خيارًا جديدًا يوازن بين الأداء والكفاءة. يعزز قدرات البرمجة، وتخطيط المهام طويلة الأمد، والتعاون مع الأدوات في سيناريوهات البرمجة بالوكيل، محققًا أداءً رائدًا بين النماذج مفتوحة المصدر من نفس الحجم في العديد من المعايير الحالية. في تنفيذ المهام المعقدة، يتميز بامتثال أقوى للتعليمات أثناء استدعاء الأدوات، ويعزز جمالية الواجهات وكفاءة إتمام المهام طويلة الأمد.",
"glm-4.7.description": "GLM-4.7 هو النموذج الرائد الأحدث من Zhipu، تم تعزيزه لسيناريوهات الترميز الوكالي مع تحسينات في قدرات البرمجة، وتخطيط المهام طويلة الأمد، والتعاون مع الأدوات. يحقق أداءً رائدًا بين النماذج مفتوحة المصدر في العديد من المعايير العامة. تم تحسين القدرات العامة لتقديم ردود أكثر إيجازًا وطبيعية، وتجربة كتابة أكثر غمرًا. في المهام المعقدة للوكلاء، تم تعزيز اتباع التعليمات أثناء استدعاء الأدوات، كما تم تحسين جمالية الواجهة وكفاءة إتمام المهام طويلة الأمد في Artifacts والترميز الوكالي.",
"glm-4.description": "GLM-4 هو النموذج الرائد الأقدم الذي تم إصداره في يناير 2024، وقد تم استبداله الآن بـ GLM-4-0520 الأقوى.",
"glm-4v-flash.description": "GLM-4V-Flash يركز على فهم صورة واحدة بكفاءة لسيناريوهات التحليل السريع مثل المعالجة الفورية أو الدفعية للصور.",
"glm-4v-plus-0111.description": "GLM-4V-Plus يفهم الفيديو والصور المتعددة، مما يجعله مناسبًا للمهام متعددة الوسائط.",
"glm-4v-plus.description": "GLM-4V-Plus يفهم الفيديو والصور المتعددة، مما يجعله مناسبًا للمهام متعددة الوسائط.",
"glm-4v.description": "GLM-4V يقدم فهمًا قويًا للصور واستدلالًا عبر المهام البصرية.",
"glm-5.description": "سلسلة GLM هي نموذج استدلال هجين من Zhipu AI مصمم للوكلاء، مع أوضاع تفكير وغير تفكير.",
"glm-image.description": "GLM-Image هو نموذج توليد الصور الرائد الجديد من Zhipu. تم تدريب النموذج بشكل كامل على رقائق محلية الصنع ويتبنى بنية هجينة أصلية تجمع بين النمذجة التلقائية ومُفكك الانتشار. يتيح هذا التصميم فهمًا قويًا للتعليمات العامة إلى جانب تقديم تفاصيل دقيقة محليًا، متغلبًا على التحديات الطويلة الأمد في توليد محتوى غني بالمعلومات مثل الملصقات، العروض التقديمية، والمخططات التعليمية. يمثل هذا استكشافًا مهمًا نحو جيل جديد من نماذج \"التوليد الإدراكي\"، كما يتجلى في نموذج Nano Banana Pro.",
"glm-z1-air.description": "نموذج استدلال يتمتع بقدرات استنتاج قوية للمهام التي تتطلب استدلالًا عميقًا.",
"glm-z1-airx.description": "استدلال فائق السرعة مع جودة استدلال عالية.",
"glm-z1-flash.description": "سلسلة GLM-Z1 تقدم استدلالًا معقدًا قويًا، وتتفوق في المنطق، الرياضيات، والبرمجة.",
"glm-z1-flashx.description": "سريع ومنخفض التكلفة: معزز بـ Flash لاستدلال فائق السرعة وتزامن أعلى.",
"glm-zero-preview.description": "GLM-Zero-Preview يقدم استدلالًا معقدًا قويًا، ويتفوق في المنطق، الرياضيات، والبرمجة.",
"global.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 هو أسرع وأذكى نموذج Haiku من Anthropic، يتميز بسرعة البرق وقدرة تفكير موسعة.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين ذكاء استثنائي وأداء قابل للتوسع للمهام المعقدة التي تتطلب استجابات واستدلال عالي الجودة.",
"global.anthropic.claude-opus-4-6-v1.description": "Claude Opus 4.6 هو النموذج الأكثر ذكاءً من Anthropic لبناء الوكلاء والبرمجة.",
"global.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 هو النموذج الأكثر ذكاءً من Anthropic حتى الآن.",
"global.anthropic.claude-sonnet-4-6.description": "Claude Sonnet 4.6 هو أفضل مزيج من السرعة والذكاء من Anthropic.",
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash يقدم قدرات الجيل التالي، بما في ذلك السرعة الممتازة، استخدام الأدوات المدمجة، التوليد متعدد الوسائط، ونافذة سياق تصل إلى مليون رمز.",
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite هو إصدار خفيف من Gemini مع تعطيل التفكير افتراضيًا لتحسين زمن الاستجابة والتكلفة، ويمكن تفعيله عبر المعلمات.",
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite يقدم ميزات الجيل التالي بما في ذلك السرعة الفائقة، استخدام الأدوات المدمجة، التوليد متعدد الوسائط، ونافذة سياق تصل إلى مليون رمز.",
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash هو نموذج استدلال عالي الأداء من Google للمهام متعددة الوسائط الممتدة.",
"google/gemini-2.5-flash-image-preview.description": "نموذج Gemini 2.5 Flash التجريبي مع دعم توليد الصور.",
"google/gemini-2.5-flash-image.description": "Gemini 2.5 Flash Image (Nano Banana) هو نموذج توليد الصور من Google مع دعم المحادثة متعددة الوسائط.",
"google/gemini-2.5-flash-lite.description": "Gemini 2.5 Flash Lite هو إصدار خفيف من Gemini 2.5 محسّن لزمن الاستجابة والتكلفة، مناسب لسيناريوهات الإنتاجية العالية.",
"google/gemini-2.5-flash-preview.description": "Gemini 2.5 Flash هو النموذج الرائد الأكثر تقدمًا من Google، مصمم لمهام الاستدلال المتقدم، البرمجة، الرياضيات، والعلوم. يتضمن ميزة \"التفكير\" المدمجة لتقديم استجابات أكثر دقة ومعالجة سياق أدق.\n\nملاحظة: يحتوي هذا النموذج على نسختين — مع التفكير وبدونه. تختلف أسعار الإخراج بشكل كبير حسب ما إذا كان التفكير مفعلاً. إذا اخترت النسخة القياسية (بدون اللاحقة \":thinking\")، سيتجنب النموذج توليد رموز التفكير.\n\nلاستخدام التفكير واستلام رموز التفكير، يجب اختيار النسخة \":thinking\"، والتي تتطلب تكلفة أعلى.\n\nيمكن أيضًا ضبط Gemini 2.5 Flash عبر معلمة \"الحد الأقصى لرموز الاستدلال\" كما هو موضح في الوثائق (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
"google/gemini-2.5-flash-preview:thinking.description": "Gemini 2.5 Flash هو النموذج الرائد الأكثر تقدمًا من Google، مصمم لمهام الاستدلال المتقدم، البرمجة، الرياضيات، والعلوم. يتضمن ميزة \"التفكير\" المدمجة لتقديم استجابات أكثر دقة ومعالجة سياق أدق.\n\nملاحظة: يحتوي هذا النموذج على نسختين — مع التفكير وبدونه. تختلف أسعار الإخراج بشكل كبير حسب ما إذا كان التفكير مفعلاً. إذا اخترت النسخة القياسية (بدون اللاحقة \":thinking\"), سيتجنب النموذج توليد رموز التفكير.\n\nلاستخدام التفكير واستلام رموز التفكير، يجب اختيار النسخة \":thinking\"، والتي تتطلب تكلفة أعلى.\n\nيمكن أيضًا ضبط Gemini 2.5 Flash عبر معلمة \"الحد الأقصى لرموز الاستدلال\" كما هو موضح في الوثائق (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning).",
"google/gemini-2.5-flash.description": "Gemini 2.5 Flash هو عائلة Google التي تمتد من زمن استجابة منخفض إلى أداء عالٍ في التفكير.",
"google/gemini-2.5-pro-preview.description": "Gemini 2.5 Pro Preview هو النموذج الأكثر تقدمًا من Google للاستدلال في المشكلات المعقدة في البرمجة، الرياضيات، والعلوم، وتحليل مجموعات البيانات الكبيرة، قواعد الشيفرة، والمستندات ذات السياق الطويل.",
"google/gemini-2.5-pro.description": "Gemini 2.5 Pro هو النموذج الرائد من Google للاستدلال مع دعم السياق الطويل للمهام المعقدة.",
"google/gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google مع دعم المحادثة متعددة الوسائط.",
"google/gemini-3-pro-preview.description": "Gemini 3 Pro هو نموذج الاستدلال متعدد الوسائط من الجيل التالي في عائلة Gemini، يفهم النصوص، الصوت، الصور، والفيديو، ويتعامل مع المهام المعقدة وقواعد الشيفرة الكبيرة.",
"google/gemini-embedding-001.description": "نموذج تضمين متقدم يتميز بأداء قوي في مهام اللغة الإنجليزية، ومتعددة اللغات، والبرمجة.",
"google/gemini-flash-1.5.description": "يوفر Gemini 1.5 Flash معالجة متعددة الوسائط محسّنة لمجموعة من المهام المعقدة.",
"google/gemini-pro-1.5.description": "يجمع Gemini 1.5 Pro بين أحدث التحسينات لمعالجة أكثر كفاءة للبيانات متعددة الوسائط.",
"google/gemma-2-27b-it.description": "Gemma 2 27B هو نموذج لغوي عام الأداء يتميز بقوة في العديد من السيناريوهات.",
"google/gemma-2-27b.description": "Gemma 2 هي عائلة نماذج فعالة من Google تناسب التطبيقات الصغيرة ومعالجة البيانات المعقدة.",
"google/gemma-2-2b-it.description": "نموذج لغوي صغير متقدم مصمم لتطبيقات الحافة.",
"google/gemma-2-9b-it.description": "Gemma 2 9B، من تطوير Google، يقدم اتباع تعليمات فعال وقدرات عامة قوية.",
"google/gemma-2-9b-it:free.description": "Gemma 2 هي عائلة نماذج نصية مفتوحة المصدر وخفيفة الوزن من Google.",
"google/gemma-2-9b.description": "Gemma 2 هي عائلة نماذج فعالة من Google تناسب التطبيقات الصغيرة ومعالجة البيانات المعقدة.",
"google/gemma-2b-it.description": "Gemma Instruct (2B) يوفر معالجة أساسية للتعليمات للتطبيقات الخفيفة.",
"google/gemma-3-12b-it.description": "Gemma 3 12B هو نموذج لغوي مفتوح المصدر من Google يحدد معيارًا جديدًا للكفاءة والأداء.",
"google/gemma-3-27b-it.description": "Gemma 3 27B هو نموذج لغوي مفتوح المصدر من Google يحدد معيارًا جديدًا للكفاءة والأداء.",
"google/text-embedding-005.description": "نموذج تضمين نصي يركز على اللغة الإنجليزية، محسّن لمهام البرمجة واللغة الإنجليزية.",
"google/text-multilingual-embedding-002.description": "نموذج تضمين نصي متعدد اللغات محسّن للمهام عبر اللغات المختلفة.",
"gpt-3.5-turbo-0125.description": "GPT 3.5 Turbo لتوليد النصوص وفهمها؛ يشير حاليًا إلى gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-0613.description": "GPT 3.5 Turbo نموذج سريع وفعّال لمهام متعددة.",
"gpt-3.5-turbo-1106.description": "GPT 3.5 Turbo لتوليد النصوص وفهمها؛ يشير حاليًا إلى gpt-3.5-turbo-0125.",
"gpt-3.5-turbo-instruct.description": "GPT 3.5 Turbo لمهام توليد النصوص والفهم، محسّن لاتباع التعليمات.",
"gpt-3.5-turbo.description": "GPT 3.5 Turbo لتوليد النصوص وفهمها؛ يشير حاليًا إلى gpt-3.5-turbo-0125.",
"gpt-35-turbo-16k.description": "GPT-3.5 Turbo 16k هو نموذج توليد نصوص عالي السعة للمهام المعقدة.",
"gpt-35-turbo.description": "GPT-3.5 Turbo هو النموذج الفعال من OpenAI للدردشة وتوليد النصوص، ويدعم استدعاء الوظائف المتوازية.",
"gpt-4-0125-preview.description": "أحدث إصدار من GPT-4 Turbo يدعم الرؤية. الطلبات البصرية تدعم وضع JSON واستدعاء الوظائف. إنه نموذج متعدد الوسائط فعال من حيث التكلفة يوازن بين الدقة والكفاءة للتطبيقات في الوقت الحقيقي.",
"gpt-4-0613.description": "يوفر GPT-4 نافذة سياق أكبر للتعامل مع مدخلات أطول، مما يجعله مناسبًا لتجميع المعلومات الواسعة وتحليل البيانات.",
"gpt-4-1106-preview.description": "أحدث إصدار من GPT-4 Turbo يدعم الرؤية. الطلبات البصرية تدعم وضع JSON واستدعاء الوظائف. إنه نموذج متعدد الوسائط فعال من حيث التكلفة يوازن بين الدقة والكفاءة للتطبيقات في الوقت الحقيقي.",
"gpt-4-32k-0613.description": "يوفر GPT-4 نافذة سياق أكبر للتعامل مع مدخلات أطول في السيناريوهات التي تتطلب دمج معلومات واسع وتحليل بيانات.",
"gpt-4-32k.description": "يوفر GPT-4 نافذة سياق أكبر للتعامل مع مدخلات أطول في السيناريوهات التي تتطلب دمج معلومات واسع وتحليل بيانات.",
"gpt-4-o-preview.description": "GPT-4o هو النموذج متعدد الوسائط الأكثر تقدمًا، يدعم إدخال النصوص والصور.",
"gpt-4-turbo-2024-04-09.description": "أحدث إصدار من GPT-4 Turbo يدعم الرؤية. الطلبات البصرية تدعم وضع JSON واستدعاء الوظائف. إنه نموذج متعدد الوسائط فعال من حيث التكلفة يوازن بين الدقة والكفاءة للتطبيقات في الوقت الحقيقي.",
"gpt-4-turbo-preview.description": "أحدث إصدار من GPT-4 Turbo يدعم الرؤية. الطلبات البصرية تدعم وضع JSON واستدعاء الوظائف. إنه نموذج متعدد الوسائط فعال من حيث التكلفة يوازن بين الدقة والكفاءة للتطبيقات في الوقت الحقيقي.",
"gpt-4-turbo.description": "أحدث إصدار من GPT-4 Turbo يدعم الرؤية. الطلبات البصرية تدعم وضع JSON واستدعاء الوظائف. إنه نموذج متعدد الوسائط فعال من حيث التكلفة يوازن بين الدقة والكفاءة للتطبيقات في الوقت الحقيقي.",
"gpt-4-vision-preview.description": "معاينة GPT-4 Vision، مصمم لمهام تحليل ومعالجة الصور.",
"gpt-4.1-2025-04-14.description": "GPT-4.1 هو النموذج الرائد للمهام المعقدة، مثالي لحل المشكلات متعددة المجالات.",
"gpt-4.1-mini.description": "GPT-4.1 mini يوازن بين الذكاء والسرعة والتكلفة، مما يجعله جذابًا للعديد من الاستخدامات.",
"gpt-4.1-nano.description": "GPT-4.1 nano هو الأسرع والأكثر فعالية من حيث التكلفة بين نماذج GPT-4.1.",
"gpt-4.1.description": "GPT-4.1 هو نموذجنا الرائد للمهام المعقدة وحل المشكلات عبر المجالات.",
"gpt-4.5-preview.description": "GPT-4.5-preview هو أحدث نموذج عام يتمتع بمعرفة عميقة بالعالم وفهم أفضل للنوايا، قوي في المهام الإبداعية وتخطيط الوكلاء. تاريخ قطع المعرفة: أكتوبر 2023.",
"gpt-4.description": "يوفر GPT-4 نافذة سياق أكبر للتعامل مع مدخلات أطول، مما يجعله مناسبًا لتجميع المعلومات الواسعة وتحليل البيانات.",
"gpt-4o-2024-05-13.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي، يجمع بين الفهم القوي والتوليد لتطبيقات واسعة النطاق مثل دعم العملاء والتعليم والدعم الفني.",
"gpt-4o-2024-08-06.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي، يجمع بين الفهم القوي والتوليد لتطبيقات واسعة النطاق مثل دعم العملاء والتعليم والمساعدة التقنية.",
"gpt-4o-2024-11-20.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي، يجمع بين الفهم القوي والتوليد لتطبيقات واسعة النطاق مثل دعم العملاء والتعليم والدعم الفني.",
"gpt-4o-audio-preview.description": "نموذج معاينة GPT-4o Audio مع إدخال وإخراج صوتي.",
"gpt-4o-mini-2024-07-18.description": "GPT-4o mini هو حل اقتصادي لمجموعة واسعة من مهام النصوص والصور.",
"gpt-4o-mini-audio-preview.description": "نموذج GPT-4o mini Audio مع إدخال وإخراج صوتي.",
"gpt-4o-mini-realtime-preview.description": "إصدار GPT-4o-mini الفوري مع إدخال وإخراج صوتي ونصي في الوقت الحقيقي.",
"gpt-4o-mini-search-preview.description": "GPT-4o mini Search Preview مدرب على فهم وتنفيذ استعلامات البحث عبر الإنترنت من خلال واجهة Chat Completions API. يتم احتساب تكلفة البحث عبر الإنترنت لكل استخدام أداة بالإضافة إلى تكلفة الرموز.",
"gpt-4o-mini-transcribe.description": "GPT-4o Mini Transcribe هو نموذج تحويل الكلام إلى نص يستخدم GPT-4o لتحسين معدل الخطأ في الكلمات، وتحديد اللغة، والدقة مقارنة بنموذج Whisper الأصلي.",
"gpt-4o-mini-tts.description": "GPT-4o mini TTS هو نموذج تحويل النص إلى كلام مبني على GPT-4o mini، يحول النص إلى كلام طبيعي بحد أقصى 2000 رمز إدخال.",
"gpt-4o-mini.description": "GPT-4o mini هو أحدث نموذج من OpenAI بعد GPT-4 Omni، يدعم إدخال نصوص وصور مع إخراج نصي. يُعد أكثر النماذج الصغيرة تقدمًا، وأرخص بكثير من النماذج المتقدمة الحديثة، وأقل تكلفة بنسبة تزيد عن 60٪ من GPT-3.5 Turbo، مع الحفاظ على ذكاء من الدرجة الأولى (82٪ MMLU).",
"gpt-4o-realtime-preview-2024-10-01.description": "إصدار GPT-4o الفوري مع إدخال وإخراج صوتي ونصي في الوقت الحقيقي.",
"gpt-4o-realtime-preview-2025-06-03.description": "إصدار GPT-4o الفوري مع إدخال وإخراج صوتي ونصي في الوقت الحقيقي.",
"gpt-4o-realtime-preview.description": "إصدار GPT-4o الفوري مع إدخال وإخراج صوتي ونصي في الوقت الحقيقي.",
"gpt-4o-search-preview.description": "GPT-4o Search Preview مدرب على فهم وتنفيذ استعلامات البحث عبر الإنترنت من خلال واجهة Chat Completions API. يتم احتساب تكلفة البحث عبر الإنترنت لكل استخدام أداة بالإضافة إلى تكلفة الرموز.",
"gpt-4o-transcribe.description": "GPT-4o Transcribe هو نموذج تحويل الكلام إلى نص يستخدم GPT-4o لتحسين معدل الخطأ في الكلمات، وتحديد اللغة، والدقة مقارنة بنموذج Whisper الأصلي.",
"gpt-4o.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي، يجمع بين الفهم القوي والقدرة على التوليد لحالات الاستخدام واسعة النطاق مثل دعم العملاء، والتعليم، والدعم الفني.",
"gpt-5-chat-latest.description": "نموذج GPT-5 المستخدم في ChatGPT، يجمع بين الفهم القوي والتوليد لتطبيقات المحادثة.",
"gpt-5-chat.description": "GPT-5 Chat هو نموذج معاينة محسّن لسيناريوهات المحادثة. يدعم إدخال نصوص وصور، ويُخرج نصًا فقط، ومناسب لتطبيقات الدردشة والذكاء الاصطناعي التفاعلي.",
"gpt-5-codex.description": "GPT-5 Codex هو إصدار من GPT-5 محسّن لمهام البرمجة التلقائية في بيئات مشابهة لـ Codex.",
"gpt-5-mini.description": "إصدار أسرع وأكثر كفاءة من GPT-5 للمهام المحددة جيدًا، يوفر استجابات أسرع مع الحفاظ على الجودة.",
"gpt-5-nano.description": "أسرع وأقل تكلفة من إصدارات GPT-5، مثالي للتطبيقات الحساسة للزمن والتكلفة.",
"gpt-5-pro.description": "GPT-5 pro يستخدم موارد حسابية أكبر للتفكير بعمق وتقديم إجابات أفضل باستمرار.",
"gpt-5.1-chat-latest.description": "GPT-5.1 Chat: إصدار ChatGPT من GPT-5.1، مصمم لسيناريوهات المحادثة.",
"gpt-5.1-codex-max.description": "GPT-5.1 Codex Max: النموذج الأكثر ذكاءً للبرمجة من OpenAI، محسن للمهام البرمجية طويلة الأفق، يدعم رموز الاستنتاج.",
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: إصدار أصغر وأقل تكلفة من Codex، محسّن لمهام البرمجة التلقائية.",
"gpt-5.1-codex.description": "GPT-5.1 Codex: إصدار من GPT-5.1 محسّن لمهام البرمجة التلقائية، مناسب لتدفقات العمل المعقدة في واجهة Responses API.",
"gpt-5.1.description": "GPT-5.1 — نموذج رائد محسّن للبرمجة والمهام التلقائية مع جهد استدلال قابل للتكوين وسياق أطول.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat هو إصدار ChatGPT المخصص لأحدث تحسينات المحادثة.",
"gpt-5.2-codex.description": "GPT-5.2-Codex هو إصدار مطور من GPT-5.2 محسن للمهام البرمجية طويلة الأفق والوكيلة.",
"gpt-5.2-pro.description": "GPT-5.2 Pro: إصدار أكثر ذكاءً ودقة من GPT-5.2 (لواجهة Responses API فقط)، مناسب للمشكلات الصعبة والاستدلال متعدد الأدوار الطويل.",
"gpt-5.2.description": "GPT-5.2 هو نموذج رائد لتدفقات العمل البرمجية والتلقائية مع استدلال أقوى وأداء سياقي طويل.",
"gpt-5.3-chat-latest.description": "GPT-5.3 Chat هو أحدث نموذج ChatGPT المستخدم في ChatGPT مع تحسينات في تجربة المحادثة.",
"gpt-5.3-codex.description": "GPT-5.3-Codex هو النموذج الأكثر قدرة على البرمجة الوكيلة حتى الآن، محسن للمهام البرمجية الوكيلة في Codex أو بيئات مشابهة.",
"gpt-5.4-mini.description": "GPT-5.4 mini هو أقوى نموذج صغير من OpenAI للبرمجة، واستخدام الحاسوب، والوكلاء الفرعيين.",
"gpt-5.4-nano.description": "GPT-5.4 nano هو أرخص نموذج من فئة GPT-5.4 من OpenAI للمهام البسيطة ذات الحجم الكبير.",
"gpt-5.4-pro.description": "GPT-5.4 Pro يستخدم المزيد من الحوسبة للتفكير بشكل أعمق وتقديم إجابات أفضل باستمرار، متاح فقط في Responses API.",
"gpt-5.4.description": "GPT-5.4 هو النموذج الرائد للعمل المهني المعقد مع أعلى قدرة على الاستنتاج.",
"gpt-5.description": "أفضل نموذج لمهام البرمجة والتلقائية عبر المجالات. يحقق GPT-5 قفزات في الدقة والسرعة والاستدلال والوعي بالسياق والتفكير المنظم وحل المشكلات.",
"gpt-audio.description": "GPT Audio هو نموذج دردشة عام يدعم الإدخال والإخراج الصوتي، مدعوم في واجهة Chat Completions API.",
"gpt-image-1-mini.description": "إصدار منخفض التكلفة من GPT Image 1 يدعم إدخال نصوص وصور وإخراج صور.",
"gpt-image-1.5.description": "نموذج GPT Image 1 محسّن بسرعة توليد أسرع 4×، وتحرير أكثر دقة، وتحسين عرض النصوص.",
"gpt-image-1.description": "نموذج توليد الصور متعدد الوسائط الأصلي في ChatGPT.",
"gpt-oss-120b.description": "يتطلب الوصول تقديم طلب. GPT-OSS-120B هو نموذج لغة مفتوح المصدر من OpenAI بقدرات قوية في توليد النصوص.",
"gpt-oss-20b.description": "يتطلب الوصول تقديم طلب. GPT-OSS-20B هو نموذج لغة متوسط الحجم مفتوح المصدر من OpenAI يتميز بكفاءة في توليد النصوص.",
"gpt-oss:120b.description": "GPT-OSS 120B هو نموذج لغة مفتوح المصدر كبير من OpenAI يستخدم تقنيات MXFP4 للكم، ويُعد نموذجًا رائدًا. يتطلب بيئات متعددة وحدات GPU أو محطات عمل عالية الأداء، ويقدم أداءً ممتازًا في الاستدلال المعقد وتوليد الأكواد والمعالجة متعددة اللغات، مع دعم متقدم لاستدعاء الوظائف وتكامل الأدوات.",
"gpt-oss:20b.description": "GPT-OSS 20B هو نموذج لغة مفتوح المصدر من OpenAI يستخدم تقنيات MXFP4 للكم، مناسب لوحدات GPU الاستهلاكية عالية الأداء أو أجهزة Mac بمعالجات Apple Silicon. يتميز بأداء قوي في توليد الحوارات والبرمجة ومهام الاستدلال، ويدعم استدعاء الوظائف واستخدام الأدوات.",
"gpt-realtime.description": "نموذج عام في الوقت الحقيقي يدعم إدخال وإخراج نصي وصوتي في الوقت الحقيقي، بالإضافة إلى إدخال الصور.",
"grok-3-mini.description": "نموذج خفيف الوزن يفكر قبل الرد. سريع وذكي في المهام المنطقية التي لا تتطلب معرفة متخصصة عميقة، مع إمكانية الوصول إلى آثار التفكير الأولية.",
"grok-3.description": "نموذج رائد يتفوق في حالات الاستخدام المؤسسية مثل استخراج البيانات، والبرمجة، والتلخيص، مع معرفة متخصصة عميقة في مجالات مثل المالية والرعاية الصحية والقانون والعلوم.",
"grok-4-0709.description": "Grok 4 من xAI بقدرات استدلال قوية.",
"grok-4-1-fast-non-reasoning.description": "نموذج متعدد الوسائط متقدم محسّن لاستخدام أدوات الوكلاء عالية الأداء.",
"grok-4-1-fast-reasoning.description": "نموذج متعدد الوسائط متقدم محسّن لاستخدام أدوات الوكلاء عالية الأداء.",
"grok-4-fast-non-reasoning.description": "يسعدنا إطلاق Grok 4 Fast، أحدث تقدم في نماذج الاستدلال منخفضة التكلفة.",
"grok-4-fast-reasoning.description": "يسعدنا إطلاق Grok 4 Fast، أحدث تقدم في نماذج الاستدلال منخفضة التكلفة.",
"grok-4.20-beta-0309-non-reasoning.description": "نسخة غير استدلالية للاستخدامات البسيطة.",
"grok-4.20-beta-0309-reasoning.description": "نموذج ذكي وسريع للغاية يقوم بالاستدلال قبل الرد.",
"grok-4.20-multi-agent-beta-0309.description": "فريق مكون من 4 أو 16 وكيلًا، يتفوق في حالات الاستخدام البحثية، لا يدعم حاليًا الأدوات على جانب العميل. يدعم فقط أدوات xAI على جانب الخادم (مثل أدوات X Search، وأدوات البحث على الويب) وأدوات MCP البعيدة.",
"grok-4.description": "أحدث وأقوى نموذج رائد لدينا، يتفوق في معالجة اللغة الطبيعية والرياضيات والاستدلال — مثالي كأداة شاملة.",
"grok-code-fast-1.description": "يسعدنا إطلاق grok-code-fast-1، نموذج استدلال سريع وفعال من حيث التكلفة يتفوق في البرمجة التلقائية.",
"grok-imagine-image-pro.description": "إنشاء صور من مطالبات نصية، تحرير الصور الموجودة باستخدام اللغة الطبيعية، أو تحسين الصور بشكل تكراري من خلال محادثات متعددة الأدوار.",
"grok-imagine-image.description": "إنشاء صور من مطالبات نصية، تحرير الصور الموجودة باستخدام اللغة الطبيعية، أو تحسين الصور بشكل تكراري من خلال محادثات متعددة الأدوار.",
"groq/compound-mini.description": "Compound-mini هو نظام ذكاء اصطناعي مركب مدعوم بنماذج متاحة علنًا على GroqCloud، يستخدم الأدوات بذكاء وانتقائية للإجابة على استفسارات المستخدمين.",
"groq/compound.description": "Compound هو نظام ذكاء اصطناعي مركب مدعوم بعدة نماذج متاحة علنًا على GroqCloud، يستخدم الأدوات بذكاء وانتقائية للإجابة على استفسارات المستخدمين.",
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B هو نموذج لغوي إبداعي وذكي مدمج من عدة نماذج رائدة.",
"hunyuan-2.0-instruct-20251111.description": "ميزات الإصدار: تم ترقية قاعدة النموذج من TurboS إلى **Hunyuan 2.0**، مما أدى إلى تحسينات شاملة في القدرات. يعزز بشكل كبير اتباع التعليمات، وفهم النصوص متعددة الأدوار والطويلة، والإبداع الأدبي، ودقة المعرفة، والبرمجة، وقدرات الاستدلال.",
"hunyuan-2.0-thinking-20251109.description": "ميزات الإصدار: تم ترقية قاعدة النموذج من TurboS إلى **Hunyuan 2.0**، مما أدى إلى تحسينات شاملة في القدرات. يعزز بشكل كبير قدرة النموذج على اتباع التعليمات المعقدة، وفهم النصوص متعددة الأدوار والطويلة، ومعالجة الأكواد، والعمل كوكيل، وأداء مهام الاستدلال.",
"hunyuan-a13b.description": "أول نموذج تفكير هجين من Hunyuan، مطور من hunyuan-standard-256K (بإجمالي 80 مليار، 13 مليار نشطة). يعتمد بشكل افتراضي على التفكير البطيء ويدعم التبديل بين التفكير السريع والبطيء عبر المعلمات أو بإضافة /no_think. تم تحسين القدرات العامة مقارنة بالجيل السابق، خاصة في الرياضيات والعلوم وفهم النصوص الطويلة والمهام المعتمدة على الوكلاء.",
"hunyuan-code.description": "أحدث نموذج برمجي من Hunyuan مدرب على 200 مليار بيانات أكواد عالية الجودة بالإضافة إلى ستة أشهر من بيانات SFT، مع سياق 8K. يحتل مرتبة قريبة من القمة في معايير البرمجة الآلية وفي تقييمات الخبراء البشريين عبر خمس لغات.",
"hunyuan-functioncall.description": "أحدث نموذج MoE FunctionCall من Hunyuan مدرب على بيانات استدعاء الأدوات عالية الجودة، مع نافذة سياق 32K ومعايير رائدة عبر الأبعاد.",
"hunyuan-large-longcontext.description": "يتفوق في مهام المستندات الطويلة مثل التلخيص والأسئلة والأجوبة مع التعامل أيضًا مع التوليد العام. قوي في تحليل النصوص الطويلة وتوليد المحتوى المعقد والمفصل.",
"hunyuan-large.description": "Hunyuan-large يحتوي على ~389 مليار معلمة إجمالية و ~52 مليار نشطة، وهو أكبر وأقوى نموذج MoE مفتوح في بنية Transformer.",
"hunyuan-lite.description": "تمت ترقيته إلى بنية MoE مع إطار سياق 256 ألف، ويتفوق على العديد من النماذج المفتوحة في مجالات معالجة اللغة الطبيعية، الشيفرة، الرياضيات، والمعايير الصناعية.",
"hunyuan-pro.description": "نموذج طويل السياق MoE-32K بعدد تريليون معلمة، يتصدر المعايير، قوي في التعليمات المعقدة والتفكير، الرياضيات المتقدمة، استدعاء الوظائف، ومُحسّن للترجمة متعددة اللغات، والمالية، والقانون، والمجالات الطبية.",
"hunyuan-role.description": "أحدث نموذج لعب الأدوار من Hunyuan، تم تحسينه رسميًا ببيانات لعب الأدوار، مما يقدم أداءً أساسيًا أقوى في سيناريوهات لعب الأدوار.",
"hunyuan-standard-256K.description": "يستخدم توجيهًا محسنًا لتخفيف توازن الحمل وانهيار الخبراء. يحقق 99.9% في البحث عن الإبرة في كومة القش في السياقات الطويلة. MOE-256K يوسع طول السياق والجودة.",
"hunyuan-standard.description": "يستخدم توجيهًا محسنًا لتخفيف توازن الحمل وانهيار الخبراء. يحقق 99.9% في البحث عن الإبرة في كومة القش في السياقات الطويلة. MOE-32K يقدم قيمة قوية مع التعامل مع المدخلات الطويلة.",
"hunyuan-t1-20250321.description": "يبني قدرات متوازنة في الفنون والعلوم مع التقاط قوي للمعلومات النصية الطويلة. يدعم الإجابات المنطقية لمشاكل الرياضيات، المنطق، العلوم، وبرمجة الأكواد عبر مستويات الصعوبة.",
"hunyuan-t1-20250403.description": "يحسن إنشاء الأكواد على مستوى المشاريع وجودة الكتابة، ويعزز فهم الموضوعات متعددة الأدوار واتباع تعليمات ToB، ويحسن فهم الكلمات، ويقلل من مشكلات الإخراج المختلط بين المبسط/التقليدي والصيني/الإنجليزي.",
"hunyuan-t1-20250529.description": "يحسن الكتابة الإبداعية والتأليف، ويعزز البرمجة الأمامية، والرياضيات، والتفكير المنطقي، ويعزز اتباع التعليمات.",
"hunyuan-t1-20250711.description": "يحسن بشكل كبير الرياضيات الصعبة، والمنطق، والبرمجة، ويعزز استقرار الإخراج، ويعزز القدرة على النصوص الطويلة.",
"hunyuan-t1-latest.description": "يحسن بشكل ملحوظ نموذج التفكير البطيء في الرياضيات الصعبة، والتفكير المعقد، والبرمجة المعقدة، واتباع التعليمات، وجودة الكتابة الإبداعية.",
"hunyuan-t1-vision-20250916.description": "أحدث نموذج t1-vision للتفكير العميق مع تحسينات كبيرة في VQA، التثبيت البصري، التعرف البصري على الحروف، الرسوم البيانية، حل المشكلات المصورة، والإبداع المعتمد على الصور، بالإضافة إلى دعم أقوى للإنجليزية واللغات منخفضة الموارد.",
"hunyuan-turbo-20241223.description": "يعزز هذا الإصدار توسيع التعليمات لتحسين التعميم، ويحسن بشكل كبير التفكير في الرياضيات/الأكواد/المنطق، ويعزز فهم الكلمات، ويحسن جودة الكتابة.",
"hunyuan-turbo-latest.description": "تحسينات عامة في تجربة فهم اللغة الطبيعية، والكتابة، والدردشة، والأسئلة والأجوبة، والترجمة، والمجالات؛ استجابات أكثر إنسانية، توضيح أفضل للنوايا الغامضة، تحسين تحليل الكلمات، جودة إبداعية أعلى وتفاعلية، ومحادثات متعددة الأدوار أقوى.",
"hunyuan-turbo.description": "نموذج الجيل التالي من Hunyuan LLM بمعمارية MoE جديدة، يوفر تفكيراً أسرع ونتائج أقوى من hunyuan-pro.",
"hunyuan-turbos-latest.description": "أحدث نموذج رائد من Hunyuan TurboS مع تفكير أقوى وتجربة شاملة أفضل.",
"hunyuan-turbos-longtext-128k-20250325.description": "يتفوق في مهام المستندات الطويلة مثل التلخيص والأسئلة والأجوبة مع التعامل أيضًا مع التوليد العام. قوي في تحليل النصوص الطويلة وتوليد المحتوى المعقد والمفصل.",
"hunyuan-turbos-vision-video.description": "ينطبق على سيناريوهات فهم الفيديو. ميزات الإصدار: يعتمد على نموذج فهم الفيديو **Hunyuan Turbos-Vision**، يدعم قدرات فهم الفيديو الأساسية مثل وصف الفيديو والإجابة على أسئلة محتوى الفيديو.",
"hunyuan-vision-1.5-instruct.description": "نموذج سريع التفكير لتحويل الصور إلى نص مبني على قاعدة النص TurboS، يظهر تحسينات ملحوظة مقارنة بالإصدار السابق في التعرف الأساسي على الصور واستدلال تحليل الصور.",
"hunyuan-vision.description": "أحدث نموذج متعدد الوسائط من Hunyuan يدعم إدخالات الصور + النصوص لتوليد النصوص.",
"image-01-live.description": "نموذج توليد صور بتفاصيل دقيقة، يدعم التحويل من نص إلى صورة وأنماط قابلة للتحكم.",
"image-01.description": "نموذج توليد صور جديد بتفاصيل دقيقة، يدعم التحويل من نص إلى صورة ومن صورة إلى صورة.",
"imagen-4.0-fast-generate-001.description": "سلسلة نماذج Imagen الجيل الرابع لتحويل النص إلى صورة - النسخة السريعة",
"imagen-4.0-generate-001.description": "سلسلة نماذج Imagen الجيل الرابع لتحويل النص إلى صورة",
"imagen-4.0-ultra-generate-001.description": "سلسلة نماذج Imagen الجيل الرابع لتحويل النص إلى صورة - النسخة الفائقة",
"inception/mercury-coder-small.description": "Mercury Coder Small مثالي لتوليد الشيفرة، تصحيح الأخطاء، وإعادة الهيكلة بزمن استجابة منخفض.",
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 هو النموذج الثالث من معمارية Ling 2.0 من فريق Bailing في Ant Group. هو نموذج MoE يحتوي على 100 مليار معلمة إجمالية و6.1 مليار نشطة لكل رمز (4.8 مليار بدون تضمين). رغم تكوينه الخفيف، يتفوق أو يضاهي نماذج كثيفة بحجم 40 مليار وحتى نماذج MoE أكبر في العديد من الاختبارات، مستكشفًا الكفاءة العالية من خلال المعمارية واستراتيجية التدريب.",
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 هو نموذج MoE صغير عالي الأداء يحتوي على 16 مليار معلمة إجمالية و1.4 مليار نشطة لكل رمز (789 مليون بدون تضمين)، ويقدم توليدًا سريعًا جدًا. بفضل تصميم MoE الفعال وبيانات التدريب عالية الجودة، يحقق أداءً من الدرجة الأولى مماثلًا للنماذج الكثيفة تحت 10 مليار ونماذج MoE الأكبر.",
"inclusionAI/Ring-flash-2.0.description": "Ring-flash-2.0 هو نموذج تفكير عالي الأداء محسّن من Ling-flash-2.0-base. يستخدم معمارية MoE بـ 100 مليار معلمة إجمالية و6.1 مليار نشطة لكل استدلال. يعمل خوارزم Icepop على استقرار تدريب التعلم المعزز لنماذج MoE، مما يتيح تحقيق مكاسب مستمرة في الاستدلال المعقد. يحقق إنجازات كبيرة في اختبارات صعبة (مسابقات رياضيات، توليد الشيفرة، الاستدلال المنطقي)، متفوقًا على النماذج الكثيفة الرائدة تحت 40 مليار ومنافسًا لنماذج MoE المفتوحة والمغلقة الأكبر. كما يتميز في الكتابة الإبداعية، وتوفر معماريته الفعالة استدلالًا سريعًا بتكلفة نشر منخفضة في حالات التزامن العالي.",
"inclusionai/ling-1t.description": "Ling-1T هو نموذج MoE من inclusionAI يحتوي على تريليون معلمة، محسّن لمهام الاستدلال المكثفة وأحمال العمل ذات السياق الكبير.",
"inclusionai/ling-flash-2.0.description": "Ling-flash-2.0 هو نموذج MoE من inclusionAI محسّن للكفاءة وأداء الاستدلال، مناسب للمهام المتوسطة إلى الكبيرة.",
"inclusionai/ling-mini-2.0.description": "Ling-mini-2.0 هو نموذج MoE خفيف الوزن من inclusionAI، يقلل التكاليف بشكل كبير مع الحفاظ على قدرات الاستدلال.",
"inclusionai/ming-flash-omini-preview.description": "Ming-flash-omni Preview هو نموذج متعدد الوسائط من inclusionAI، يدعم إدخال الصوت، الصورة، والفيديو، مع تحسينات في عرض الصور والتعرف على الكلام.",
"inclusionai/ring-1t.description": "Ring-1T هو نموذج MoE للاستدلال من inclusionAI يحتوي على تريليون معلمة، مناسب لمهام الاستدلال واسعة النطاق والبحث.",
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 هو متغير من نموذج Ring من inclusionAI مخصص لسيناريوهات الإنتاجية العالية، يركز على السرعة وكفاءة التكلفة.",
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 هو نموذج MoE خفيف الوزن عالي الإنتاجية من inclusionAI، مصمم للتزامن العالي.",
"intern-latest.description": "بشكل افتراضي، يشير إلى أحدث نموذج في سلسلة Intern، حاليًا محدد على intern-s1-pro.",
"intern-s1-mini.description": "نموذج كبير متعدد الوسائط خفيف الوزن يتميز بقدرات استدلال علمية قوية.",
"intern-s1-pro.description": "لقد أطلقنا نموذج الاستدلال متعدد الوسائط الأكثر تقدمًا مفتوح المصدر، حاليًا النموذج الكبير متعدد الوسائط مفتوح المصدر الأفضل أداءً من حيث الأداء العام.",
"intern-s1.description": "نموذج الاستدلال متعدد الوسائط مفتوح المصدر لا يظهر فقط قدرات عامة قوية ولكنه يحقق أداءً متقدمًا عبر مجموعة واسعة من المهام العلمية.",
"internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat هو نموذج محادثة مفتوح المصدر مبني على بنية InternLM2. يركز نموذج 7B على توليد الحوارات ويدعم اللغتين الصينية والإنجليزية، ويستخدم تدريبًا حديثًا لتقديم محادثات ذكية وسلسة. مناسب لسيناريوهات متعددة مثل دعم العملاء والمساعدين الشخصيين.",
"internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO هو نموذج مدرب مسبقًا متعدد الوسائط للاستدلال المعقد بين الصور والنصوص.",
"internvl3-14b.description": "InternVL3 14B هو نموذج متعدد الوسائط متوسط الحجم يوازن بين الأداء والتكلفة.",
"internvl3-1b.description": "InternVL3 1B هو نموذج متعدد الوسائط خفيف الوزن مناسب للنشر في بيئات محدودة الموارد.",
"internvl3-38b.description": "InternVL3 38B هو نموذج مفتوح المصدر كبير متعدد الوسائط لفهم دقيق بين الصور والنصوص.",
"internvl3.5-241b-a28b.description": "نموذجنا الكبير متعدد الوسائط الجديد يتميز بفهم محسّن للنصوص والصور وقدرات فهم الصور طويلة التسلسل، مما يحقق أداءً مشابهًا للنماذج المغلقة المصدر الرائدة.",
"internvl3.5-latest.description": "بشكل افتراضي، يشير إلى أحدث نموذج في سلسلة InternVL3.5، حاليًا محدد على internvl3.5-241b-a28b.",
"irag-1.0.description": "ERNIE iRAG هو نموذج توليد معزز باسترجاع الصور، يدعم البحث عن الصور، واسترجاع الصور والنصوص، وتوليد المحتوى.",
"jamba-large.description": "أقوى وأحدث نماذجنا، مصمم للمهام المؤسسية المعقدة بأداء متميز.",
"jamba-mini.description": "أكثر النماذج كفاءة في فئته، يوازن بين السرعة والجودة مع استهلاك منخفض للموارد.",
"jina-deepsearch-v1.description": "DeepSearch يجمع بين البحث عبر الإنترنت، والقراءة، والاستدلال لإجراء تحقيقات شاملة. فكر فيه كوكيل يأخذ مهمة البحث الخاصة بك، ويجري عمليات بحث واسعة متعددة المراحل، ثم يقدم إجابة. تتضمن العملية بحثًا مستمرًا، واستدلالًا، وحلًا متعدد الزوايا للمشكلات، وهو مختلف جوهريًا عن نماذج LLM التقليدية التي تعتمد على بيانات التدريب المسبق أو أنظمة RAG التقليدية التي تعتمد على بحث سطحي لمرة واحدة.",
"kimi-k2-0711-preview.description": "kimi-k2 هو نموذج MoE أساسي يتمتع بقدرات قوية في البرمجة والوكالة (1 تريليون معلمة إجمالية، 32 مليار نشطة)، ويتفوق على النماذج المفتوحة السائدة في اختبارات الاستدلال، البرمجة، الرياضيات، والوكالة.",
"kimi-k2-0905-preview.description": "kimi-k2-0905-preview يوفر نافذة سياق 256k، برمجة وكيلة أقوى، جودة أفضل لرموز الواجهة الأمامية، وفهم سياقي محسن.",
"kimi-k2-instruct.description": "Kimi K2 Instruct هو النموذج الرسمي للاستدلال من Kimi مع سياق طويل للبرمجة، الأسئلة والأجوبة، والمزيد.",
"kimi-k2-thinking-turbo.description": "إصدار K2 عالي السرعة للتفكير الطويل مع نافذة سياق 256k، استدلال عميق قوي، وإخراج 60100 رمز/ثانية.",
"kimi-k2-thinking.description": "kimi-k2-thinking هو نموذج تفكير من Moonshot AI يتمتع بقدرات عامة في الوكالة والاستدلال. يتفوق في الاستدلال العميق ويمكنه حل المشكلات الصعبة باستخدام أدوات متعددة الخطوات.",
"kimi-k2-turbo-preview.description": "kimi-k2 هو نموذج MoE أساسي يتمتع بقدرات قوية في البرمجة والوكالة (1 تريليون معلمة إجمالية، 32 مليار نشطة)، ويتفوق على النماذج المفتوحة السائدة في اختبارات الاستدلال، البرمجة، الرياضيات، والوكالة.",
"kimi-k2.5.description": "Kimi K2.5 هو أقوى نموذج من سلسلة Kimi، يقدم أداءً رائدًا مفتوح المصدر في مهام الوكلاء، البرمجة، وفهم الرؤية. يدعم الإدخال متعدد الوسائط وأنماط التفكير وغير التفكير.",
"kimi-k2.description": "Kimi-K2 هو نموذج MoE أساسي من Moonshot AI يتمتع بقدرات قوية في البرمجة والوكالة، بإجمالي 1 تريليون معلمة و32 مليار نشطة. يتفوق على النماذج المفتوحة السائدة في اختبارات الاستدلال العام، البرمجة، الرياضيات، ومهام الوكالة.",
"kimi-k2:1t.description": "Kimi K2 هو نموذج LLM كبير من نوع MoE من Moonshot AI بإجمالي 1 تريليون معلمة و32 مليار نشطة لكل تمرير أمامي. مُحسّن لقدرات الوكالة بما في ذلك استخدام الأدوات المتقدمة، الاستدلال، وتوليد الشيفرة.",
"kuaishou/kat-coder-pro-v1.description": "KAT-Coder-Pro-V1 (مجاني لفترة محدودة) يركز على فهم الشيفرة والأتمتة لوكلاء البرمجة الفعالة.",
"labs-devstral-small-2512.description": "Devstral Small 2 يتفوق في استخدام الأدوات لاستكشاف قواعد الأكواد، وتحرير ملفات متعددة، وتشغيل وكلاء هندسة البرمجيات.",
"lite.description": "Spark Lite هو نموذج LLM خفيف الوزن بزمن استجابة منخفض للغاية ومعالجة فعالة. مجاني بالكامل ويدعم البحث الفوري عبر الإنترنت. يقدم استجابات سريعة ويعمل جيدًا على الأجهزة منخفضة القدرة ولتخصيص النماذج، مما يوفر كفاءة تكلفة عالية وتجربة ذكية، خاصة في سيناريوهات الأسئلة المعرفية، توليد المحتوى، والبحث.",
"llama-3.1-70b-versatile.description": "Llama 3.1 70B يقدم استدلالًا أقوى للذكاء الاصطناعي لتطبيقات معقدة، ويدعم الحوسبة الثقيلة بكفاءة ودقة عالية.",
"llama-3.1-8b-instant.description": "Llama 3.1 8B هو نموذج عالي الكفاءة لتوليد النصوص بسرعة، مثالي للتطبيقات واسعة النطاق وذات التكلفة المنخفضة.",
"llama-3.1-instruct.description": "نموذج Llama 3.1 المحسن للتعليمات مُحسّن للدردشة ويتفوق على العديد من النماذج المفتوحة في اختبارات الصناعة الشائعة.",
"llama-3.2-11b-vision-instruct.description": "استدلال بصري قوي على الصور عالية الدقة، مناسب لتطبيقات الفهم البصري.",
"llama-3.2-11b-vision-preview.description": "تم تصميم Llama 3.2 للمهام التي تجمع بين الرؤية والنص، ويتفوق في توصيف الصور والأسئلة البصرية لربط توليد اللغة بالاستدلال البصري.",
"llama-3.2-90b-vision-instruct.description": "استدلال بصري متقدم لتطبيقات الوكلاء المعتمدين على الفهم البصري.",
"llama-3.2-90b-vision-preview.description": "تم تصميم Llama 3.2 للمهام التي تجمع بين الرؤية والنص، ويتفوق في توصيف الصور والأسئلة البصرية لربط توليد اللغة بالاستدلال البصري.",
"llama-3.2-vision-instruct.description": "نموذج Llama 3.2-Vision المحسن للتعليمات مُحسّن للتعرف البصري، الاستدلال على الصور، توصيف الصور، والأسئلة العامة حول الصور.",
"llama-3.3-70b-versatile.description": "Meta Llama 3.3 هو نموذج LLM متعدد اللغات يحتوي على 70 مليار معلمة (نص داخل/خارج)، ويقدم نسخًا مدربة مسبقًا ومحسنة للتعليمات. النسخة المحسنة للتعليمات مخصصة للدردشة متعددة اللغات وتتجاوز العديد من النماذج المفتوحة والمغلقة في اختبارات الصناعة الشائعة.",
"llama-3.3-instruct.description": "نموذج Llama 3.3 المحسن للتعليمات مُحسّن للدردشة ويتفوق على العديد من النماذج المفتوحة في اختبارات الصناعة الشائعة.",
"llama3-70b-8192.description": "Meta Llama 3 70B يقدم معالجة استثنائية للتعقيد للمشاريع المتطلبة.",
"llama3-8b-8192.description": "Meta Llama 3 8B يقدم أداء استدلال قوي لسيناريوهات متنوعة.",
"llama3-groq-70b-8192-tool-use-preview.description": "Llama 3 Groq 70B Tool Use يوفر استدعاء أدوات قوي لمعالجة فعالة للمهام المعقدة.",
"llama3-groq-8b-8192-tool-use-preview.description": "Llama 3 Groq 8B Tool Use مُحسّن لاستخدام الأدوات بكفاءة مع حوسبة متوازية سريعة.",
"llama3.1-8b.description": "Llama 3.1 8B: إصدار صغير ومنخفض الكمون من Llama للاستدلال الخفيف والدردشة عبر الإنترنت.",
"llama3.1.description": "Llama 3.1 هو النموذج الرائد من Meta، يتوسع حتى 405 مليار معلمة للحوار المعقد، الترجمة متعددة اللغات، وتحليل البيانات.",
"llama3.1:405b.description": "Llama 3.1 هو النموذج الرائد من Meta، يتوسع حتى 405 مليار معلمة للحوار المعقد، الترجمة متعددة اللغات، وتحليل البيانات.",
"llama3.1:70b.description": "Llama 3.1 هو النموذج الرائد من Meta، يتوسع حتى 405 مليار معلمة للحوار المعقد، الترجمة متعددة اللغات، وتحليل البيانات.",
"llava-v1.5-7b-4096-preview.description": "يجمع LLaVA 1.5 7B بين المعالجة البصرية لتوليد مخرجات معقدة من مدخلات مرئية.",
"llava.description": "LLaVA هو نموذج متعدد الوسائط يجمع بين مشفر بصري ونموذج Vicuna لفهم قوي بين الرؤية واللغة.",
"llava:13b.description": "LLaVA هو نموذج متعدد الوسائط يجمع بين مشفر بصري ونموذج Vicuna لفهم قوي بين الرؤية واللغة.",
"llava:34b.description": "LLaVA هو نموذج متعدد الوسائط يجمع بين مشفر بصري ونموذج Vicuna لفهم قوي بين الرؤية واللغة.",
"magistral-medium-latest.description": "Magistral Medium 1.2 هو نموذج متقدم للاستدلال من Mistral AI (سبتمبر 2025) مع دعم للرؤية.",
"magistral-small-2509.description": "Magistral Small 1.2 هو نموذج استدلال صغير مفتوح المصدر من Mistral AI (سبتمبر 2025) مع دعم للرؤية.",
"mathstral.description": "MathΣtral مصمم للبحث العلمي والاستدلال الرياضي، مع قدرات قوية في الحساب والشرح.",
"max-32k.description": "يوفر Spark Max 32K معالجة لسياقات طويلة مع فهم أعمق للسياق واستدلال منطقي قوي، ويدعم مدخلات تصل إلى 32 ألف رمز لقراءة المستندات الطويلة والإجابة على الأسئلة المعتمدة على المعرفة الخاصة.",
"megrez-3b-instruct.description": "Megrez 3B Instruct هو نموذج صغير وفعّال من Wuwen Xinqiong.",
"meituan/longcat-flash-chat.description": "نموذج أساسي مفتوح المصدر من Meituan، مُحسّن للحوار ومهام الوكلاء، يتميز باستخدام الأدوات والتفاعلات متعددة الأدوار المعقدة.",
"meta-llama-3-70b-instruct.description": "نموذج قوي يحتوي على 70 مليار معامل، يتفوق في الاستدلال والبرمجة ومهام اللغة العامة.",
"meta-llama-3-8b-instruct.description": "نموذج متعدد الاستخدامات يحتوي على 8 مليارات معامل، مُحسّن للدردشة وتوليد النصوص.",
"meta-llama-3.1-405b-instruct.description": "نموذج Llama 3.1 مُعدّ للتعليمات، مُحسّن للدردشة متعددة اللغات، ويؤدي أداءً قويًا في معايير الصناعة مقارنة بالنماذج المفتوحة والمغلقة.",
"meta-llama-3.1-70b-instruct.description": "نموذج Llama 3.1 مُعدّ للتعليمات، مُحسّن للدردشة متعددة اللغات، ويؤدي أداءً قويًا في معايير الصناعة مقارنة بالنماذج المفتوحة والمغلقة.",
"meta-llama-3.1-8b-instruct.description": "نموذج Llama 3.1 مُعدّ للتعليمات، مُحسّن للدردشة متعددة اللغات، ويؤدي أداءً قويًا في معايير الصناعة مقارنة بالنماذج المفتوحة والمغلقة.",
"meta-llama/Llama-2-13b-chat-hf.description": "LLaMA-2 Chat (13B) يقدم معالجة لغوية قوية وتجربة دردشة متينة.",
"meta-llama/Llama-2-70b-hf.description": "LLaMA-2 يقدم معالجة لغوية قوية وتجربة تفاعل متقدمة.",
"meta-llama/Llama-3-70b-chat-hf.description": "Llama 3 70B Instruct Reference هو نموذج دردشة قوي للحوارات المعقدة.",
"meta-llama/Llama-3-8b-chat-hf.description": "Llama 3 8B Instruct Reference يدعم لغات متعددة ويتميز بمعرفة واسعة في مختلف المجالات.",
"meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo.description": "تم تصميم LLaMA 3.2 لمهام تجمع بين الرؤية والنص. يتفوق في توصيف الصور والأسئلة البصرية، ويجسر بين توليد اللغة والاستدلال البصري.",
"meta-llama/Llama-3.2-3B-Instruct-Turbo.description": "تم تصميم LLaMA 3.2 لمهام تجمع بين الرؤية والنص. يتفوق في توصيف الصور والأسئلة البصرية، ويجسر بين توليد اللغة والاستدلال البصري.",
"meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo.description": "تم تصميم LLaMA 3.2 لمهام تجمع بين الرؤية والنص. يتفوق في توصيف الصور والأسئلة البصرية، ويجسر بين توليد اللغة والاستدلال البصري.",
"meta-llama/Llama-3.3-70B-Instruct-Turbo.description": "Meta Llama 3.3 هو نموذج لغوي متعدد اللغات يحتوي على 70 مليار معامل، مُعدّ للتعليمات. النسخة النصية فقط مُحسّنة للدردشة متعددة اللغات وتتفوّق على العديد من النماذج المفتوحة والمغلقة في معايير الصناعة.",
"meta-llama/Llama-Vision-Free.description": "تم تصميم LLaMA 3.2 لمهام تجمع بين الرؤية والنص. يتفوق في توصيف الصور والأسئلة البصرية، ويجسر بين توليد اللغة والاستدلال البصري.",
"meta-llama/Meta-Llama-3-70B-Instruct-Lite.description": "Llama 3 70B Instruct Lite مصمم لأداء عالٍ بزمن استجابة منخفض.",
"meta-llama/Meta-Llama-3-70B-Instruct-Turbo.description": "Llama 3 70B Instruct Turbo يقدم فهماً وتوليداً قوياً لأكثر المهام تطلباً.",
"meta-llama/Meta-Llama-3-8B-Instruct-Lite.description": "Llama 3 8B Instruct Lite يوازن بين الأداء والموارد في البيئات المحدودة.",
"meta-llama/Meta-Llama-3-8B-Instruct-Turbo.description": "Llama 3 8B Instruct Turbo هو نموذج عالي الأداء لمجموعة واسعة من الاستخدامات.",
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo.description": "نموذج Llama 3.1 Turbo بسعة 405 مليار معامل يوفر قدرة سياقية هائلة لمعالجة البيانات الضخمة ويتفوق في تطبيقات الذكاء الاصطناعي واسعة النطاق.",
"meta-llama/Meta-Llama-3.1-405B-Instruct.description": "Llama 3.1 هو النموذج الرائد من Meta، يصل إلى 405 مليار معامل للحوار المعقد، الترجمة متعددة اللغات، وتحليل البيانات.",
"meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo.description": "Llama 3.1 70B مُعدّ بدقة لتطبيقات الحمل العالي؛ يوفر التكميم FP8 حساباً فعالاً ودقة في السيناريوهات المعقدة.",
"meta-llama/Meta-Llama-3.1-70B.description": "Llama 3.1 هو النموذج الرائد من Meta، يصل إلى 405 مليار معامل للحوار المعقد، الترجمة متعددة اللغات، وتحليل البيانات.",
"meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo.description": "Llama 3.1 8B يستخدم تكميم FP8، يدعم حتى 131,072 رمز سياقي، ويُعد من أفضل النماذج المفتوحة للمهام المعقدة عبر العديد من المعايير.",
"meta-llama/llama-3-70b-instruct.description": "Llama 3 70B Instruct مُحسّن للحوار عالي الجودة ويؤدي أداءً قوياً في التقييمات البشرية.",
"meta-llama/llama-3-8b-instruct.description": "Llama 3 8B Instruct مُحسّن للحوار عالي الجودة، ويتفوق على العديد من النماذج المغلقة.",
"meta-llama/llama-3.1-70b-instruct.description": "أحدث سلسلة Llama 3.1 من Meta، النسخة المُعدّة للتعليمات بسعة 70 مليار معامل، مُحسّنة للحوار عالي الجودة. تُظهر أداءً قوياً في التقييمات الصناعية مقارنة بالنماذج المغلقة الرائدة. (متاحة فقط للجهات المعتمدة تجارياً.)",
"meta-llama/llama-3.1-8b-instruct.description": "أحدث سلسلة Llama 3.1 من Meta، النسخة المُعدّة للتعليمات بسعة 8 مليارات معامل، سريعة وفعالة بشكل خاص. تُظهر أداءً قوياً في التقييمات الصناعية، متفوقة على العديد من النماذج المغلقة الرائدة. (متاحة فقط للجهات المعتمدة تجارياً.)",
"meta-llama/llama-3.1-8b-instruct:free.description": "LLaMA 3.1 يدعم لغات متعددة ويُعد من النماذج الرائدة في التوليد.",
"meta-llama/llama-3.2-11b-vision-instruct.description": "تم تصميم LLaMA 3.2 لمهام تجمع بين الرؤية والنص. يتفوق في توصيف الصور والأسئلة البصرية، ويجسر بين توليد اللغة والاستدلال البصري.",
"meta-llama/llama-3.2-3b-instruct.description": "meta-llama/llama-3.2-3b-instruct",
"meta-llama/llama-3.3-70b-instruct.description": "Llama 3.3 هو النموذج مفتوح المصدر الأكثر تقدماً من Llama متعدد اللغات، يقدم أداءً قريباً من 405B بتكلفة منخفضة جداً. يعتمد على Transformer وتم تحسينه باستخدام SFT وRLHF لتحقيق الفائدة والسلامة. النسخة المُعدّة للتعليمات مُحسّنة للدردشة متعددة اللغات وتتفوّق على العديد من النماذج المفتوحة والمغلقة في معايير الصناعة. تاريخ قطع المعرفة: ديسمبر 2023.",
"meta-llama/llama-3.3-70b-instruct:free.description": "Llama 3.3 هو النموذج مفتوح المصدر الأكثر تقدماً من Llama متعدد اللغات، يقدم أداءً قريباً من 405B بتكلفة منخفضة جداً. يعتمد على Transformer وتم تحسينه باستخدام SFT وRLHF لتحقيق الفائدة والسلامة. النسخة المُعدّة للتعليمات مُحسّنة للدردشة متعددة اللغات وتتفوّق على العديد من النماذج المفتوحة والمغلقة في معايير الصناعة. تاريخ قطع المعرفة: ديسمبر 2023.",
"meta.llama3-1-405b-instruct-v1:0.description": "Meta Llama 3.1 405B Instruct هو أكبر وأقوى نموذج Llama 3.1 Instruct، نموذج متقدم للغاية للحوار والاستدلال وتوليد البيانات الاصطناعية، ويشكل قاعدة قوية للتدريب المخصص أو التخصيص حسب المجال. نماذج Llama 3.1 متعددة اللغات هي مجموعة من النماذج المدربة مسبقًا والمضبوطة بالتعليمات بأحجام 8B و70B و405B (نص داخل/نص خارج). تم تحسين النماذج المضبوطة للحوار متعدد اللغات وتتجاوز العديد من نماذج الدردشة المفتوحة في المعايير الصناعية. تم تصميم Llama 3.1 للاستخدام التجاري والبحثي عبر اللغات. النماذج المضبوطة مناسبة للدردشة على نمط المساعد، بينما النماذج المدربة مسبقًا تناسب مهام توليد اللغة الطبيعية الأوسع. يمكن أيضًا استخدام مخرجات Llama 3.1 لتحسين نماذج أخرى، بما في ذلك توليد البيانات الاصطناعية وتحسينها. Llama 3.1 هو نموذج Transformer توليدي ذاتي مع بنية محسّنة. تستخدم الإصدارات المضبوطة التخصيص الخاضع للإشراف (SFT) والتعلم المعزز من تغذية راجعة بشرية (RLHF) لتتماشى مع تفضيلات البشر من حيث الفائدة والسلامة.",
"meta.llama3-1-70b-instruct-v1:0.description": "Meta Llama 3.1 70B Instruct المحدث مع نافذة سياق ممتدة إلى 128K، ودعم متعدد اللغات، واستدلال محسن. نماذج Llama 3.1 متعددة اللغات هي مجموعة من النماذج المدربة مسبقًا والمضبوطة بالتعليمات بأحجام 8B و70B و405B (نص داخل/نص خارج). تم تحسين النماذج المضبوطة للحوار متعدد اللغات وتتجاوز العديد من نماذج الدردشة المفتوحة في المعايير الصناعية. تم تصميم Llama 3.1 للاستخدام التجاري والبحثي عبر اللغات. النماذج المضبوطة مناسبة للدردشة على نمط المساعد، بينما النماذج المدربة مسبقًا تناسب مهام توليد اللغة الطبيعية الأوسع. يمكن أيضًا استخدام مخرجات Llama 3.1 لتحسين نماذج أخرى، بما في ذلك توليد البيانات الاصطناعية وتحسينها. Llama 3.1 هو نموذج Transformer توليدي ذاتي مع بنية محسّنة. تستخدم الإصدارات المضبوطة التخصيص الخاضع للإشراف (SFT) والتعلم المعزز من تغذية راجعة بشرية (RLHF) لتتماشى مع تفضيلات البشر من حيث الفائدة والسلامة.",
"meta.llama3-1-8b-instruct-v1:0.description": "Meta Llama 3.1 8B Instruct المحدث مع نافذة سياق 128K، ودعم متعدد اللغات، واستدلال محسن. عائلة Llama 3.1 تشمل نماذج نصية مضبوطة بأحجام 8B و70B و405B، محسّنة للدردشة متعددة اللغات وأداء قوي في المعايير. تم تصميمه للاستخدام التجاري والبحثي عبر اللغات؛ النماذج المضبوطة تناسب الدردشة على نمط المساعد، بينما النماذج المدربة مسبقًا تناسب مهام التوليد الأوسع. يمكن أيضًا استخدام مخرجات Llama 3.1 لتحسين نماذج أخرى (مثل البيانات الاصطناعية والتحسين). إنه نموذج Transformer توليدي ذاتي، مع SFT وRLHF للتوافق مع الفائدة والسلامة.",
"meta.llama3-70b-instruct-v1:0.description": "Meta Llama 3 هو نموذج لغوي مفتوح المصدر مخصص للمطورين والباحثين والشركات، صُمم لمساعدتهم في بناء أفكار الذكاء الاصطناعي التوليدي، وتجربتها، وتوسيع نطاقها بشكل مسؤول. ويُعد جزءًا من البنية التحتية للابتكار المجتمعي العالمي، مما يجعله مناسبًا لإنشاء المحتوى، والذكاء الاصطناعي الحواري، وفهم اللغة، والبحث والتطوير، وتطبيقات المؤسسات.",
"meta.llama3-8b-instruct-v1:0.description": "ميتا لاما 3 هو نموذج لغوي مفتوح المصدر مخصص للمطورين والباحثين والشركات، صُمم لمساعدتهم في بناء أفكار الذكاء الاصطناعي التوليدي، وتجربتها، وتوسيع نطاقها بشكل مسؤول. يُعد جزءًا من البنية التحتية للابتكار المجتمعي العالمي، وهو مناسب للبيئات ذات الموارد المحدودة، والأجهزة الطرفية، وأوقات التدريب الأسرع.",
"meta/Llama-3.2-11B-Vision-Instruct.description": "قدرات قوية في الاستدلال الصوري على الصور عالية الدقة، مناسب لتطبيقات الفهم البصري.",
"meta/Llama-3.2-90B-Vision-Instruct.description": "استدلال صوري متقدم لتطبيقات الوكلاء المعتمدين على الفهم البصري.",
"meta/Llama-3.3-70B-Instruct.description": "لاما 3.3 هو النموذج مفتوح المصدر الأكثر تقدمًا متعدد اللغات، ويقدم أداءً يقارب نماذج 405B بتكلفة منخفضة جدًا. يعتمد على بنية Transformer وتم تحسينه باستخدام SFT وRLHF لتعزيز الفائدة والسلامة. النسخة المضبوطة على التعليمات مثالية للدردشة متعددة اللغات وتتفوّق على العديد من النماذج المفتوحة والمغلقة في معايير الصناعة. تاريخ التحديث المعرفي: ديسمبر 2023.",
"meta/Meta-Llama-3-70B-Instruct.description": "نموذج قوي يحتوي على 70 مليار معامل، يتميز في الاستدلال، والبرمجة، ومهام اللغة العامة.",
"meta/Meta-Llama-3-8B-Instruct.description": "نموذج متعدد الاستخدامات يحتوي على 8 مليارات معامل، مُحسّن للدردشة وتوليد النصوص.",
"meta/Meta-Llama-3.1-405B-Instruct.description": "نموذج لاما 3.1 المضبوط على التعليمات، مُحسّن للدردشة متعددة اللغات، ويؤدي أداءً قويًا في معايير الصناعة بين النماذج المفتوحة والمغلقة.",
"meta/Meta-Llama-3.1-70B-Instruct.description": "نموذج لاما 3.1 المضبوط على التعليمات، مُحسّن للدردشة متعددة اللغات، ويؤدي أداءً قويًا في معايير الصناعة بين النماذج المفتوحة والمغلقة.",
"meta/Meta-Llama-3.1-8B-Instruct.description": "نموذج لاما 3.1 المضبوط على التعليمات، مُحسّن للدردشة متعددة اللغات، ويؤدي أداءً قويًا في معايير الصناعة بين النماذج المفتوحة والمغلقة.",
"meta/llama-3.1-405b-instruct.description": "نموذج لغوي متقدم يدعم توليد البيانات الاصطناعية، وتقطير المعرفة، والاستدلال لمهام الدردشة والبرمجة والمجالات المتخصصة.",
"meta/llama-3.1-70b-instruct.description": "مصمم للحوار المعقد مع فهم ممتاز للسياق، واستدلال، وتوليد نصوص.",
"meta/llama-3.1-70b.description": "نسخة محدثة من لاما 3 70B Instruct من ميتا، تدعم سياقًا يصل إلى 128 ألف رمز، وتدعم لغات متعددة، مع تحسينات في الاستدلال.",
"meta/llama-3.1-8b-instruct.description": "نموذج متطور يتمتع بفهم لغوي قوي، واستدلال، وتوليد نصوص.",
"meta/llama-3.1-8b.description": "لاما 3.1 8B يدعم نافذة سياق تصل إلى 128 ألف رمز، مثالي للدردشة في الوقت الحقيقي وتحليل البيانات، ويوفر توفيرًا كبيرًا في التكلفة مقارنة بالنماذج الأكبر. يُقدَّم عبر Groq باستخدام عتاد LPU لاستدلال سريع وفعّال.",
"meta/llama-3.2-11b-vision-instruct.description": "نموذج متقدم يجمع بين الرؤية واللغة، يتميز باستدلال عالي الجودة من الصور.",
"meta/llama-3.2-11b.description": "نموذج استدلال صوري مضبوط على التعليمات (مدخلات نص + صورة، مخرجات نصية) مُحسّن للتعرف البصري، والاستدلال من الصور، والتعليق، والإجابة العامة على الأسئلة المتعلقة بالصور.",
"meta/llama-3.2-1b-instruct.description": "نموذج لغوي صغير متطور يتمتع بفهم قوي، واستدلال، وتوليد نصوص.",
"meta/llama-3.2-1b.description": "نموذج نصي فقط للاستخدام على الأجهزة مثل الاسترجاع المحلي متعدد اللغات، والتلخيص، وإعادة الصياغة.",
"meta/llama-3.2-3b-instruct.description": "نموذج لغوي صغير متطور يتمتع بفهم قوي، واستدلال، وتوليد نصوص.",
"meta/llama-3.2-3b.description": "نموذج نصي فقط مضبوط للاستخدام على الأجهزة مثل الاسترجاع المحلي متعدد اللغات، والتلخيص، وإعادة الصياغة.",
"meta/llama-3.2-90b-vision-instruct.description": "نموذج متقدم يجمع بين الرؤية واللغة، يتميز باستدلال عالي الجودة من الصور.",
"meta/llama-3.2-90b.description": "نموذج استدلال صوري مضبوط على التعليمات (مدخلات نص + صورة، مخرجات نصية) مُحسّن للتعرف البصري، والاستدلال من الصور، والتعليق، والإجابة العامة على الأسئلة المتعلقة بالصور.",
"meta/llama-3.3-70b-instruct.description": "نموذج لغوي متقدم يتميز في الاستدلال، والرياضيات، والمنطق العام، واستدعاء الوظائف.",
"meta/llama-3.3-70b.description": "توازن مثالي بين الأداء والكفاءة. مصمم للذكاء الاصطناعي الحواري عالي الأداء في إنشاء المحتوى، وتطبيقات المؤسسات، والبحث، مع فهم لغوي قوي للتلخيص، والتصنيف، وتحليل المشاعر، وتوليد الشيفرة.",
"meta/llama-4-maverick.description": "عائلة لاما 4 هي مجموعة نماذج ذكاء اصطناعي متعددة الوسائط تدعم النص والتجارب متعددة الوسائط، وتستخدم MoE لفهم متقدم للنصوص والصور. لاما 4 مافريك هو نموذج يحتوي على 17 مليار معامل و128 خبيرًا، يُقدَّم عبر DeepInfra.",
"meta/llama-4-scout.description": "عائلة لاما 4 هي مجموعة نماذج ذكاء اصطناعي متعددة الوسائط تدعم النص والتجارب متعددة الوسائط، وتستخدم MoE لفهم متقدم للنصوص والصور. لاما 4 سكاوت هو نموذج يحتوي على 17 مليار معامل و16 خبيرًا، يُقدَّم عبر DeepInfra.",
"microsoft/Phi-3-medium-128k-instruct.description": "نفس نموذج Phi-3-medium ولكن مع نافذة سياق أكبر لدعم استرجاع المعلومات أو التعليمات القليلة.",
"microsoft/Phi-3-medium-4k-instruct.description": "نموذج يحتوي على 14 مليار معامل بجودة أعلى من Phi-3-mini، يركز على البيانات عالية الجودة التي تتطلب استدلالًا عميقًا.",
"microsoft/Phi-3-mini-128k-instruct.description": "نفس نموذج Phi-3-mini ولكن مع نافذة سياق أكبر لدعم استرجاع المعلومات أو التعليمات القليلة.",
"microsoft/Phi-3-mini-4k-instruct.description": "أصغر عضو في عائلة Phi-3، مُحسّن للجودة وانخفاض زمن الاستجابة.",
"microsoft/Phi-3-small-128k-instruct.description": "نفس نموذج Phi-3-small ولكن مع نافذة سياق أكبر لدعم استرجاع المعلومات أو التعليمات القليلة.",
"microsoft/Phi-3-small-8k-instruct.description": "نموذج يحتوي على 7 مليارات معامل بجودة أعلى من Phi-3-mini، يركز على البيانات عالية الجودة التي تتطلب استدلالًا عميقًا.",
"microsoft/Phi-3.5-mini-instruct.description": "إصدار محدث من نموذج Phi-3-mini.",
"microsoft/Phi-3.5-vision-instruct.description": "إصدار محدث من نموذج Phi-3-vision.",
"microsoft/WizardLM-2-8x22B.description": "WizardLM 2 هو نموذج لغوي من Microsoft AI يتميز بالحوار المعقد، والمهام متعددة اللغات، والاستدلال، والمساعدات الذكية.",
"microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B هو النموذج الأكثر تقدمًا من Microsoft AI ضمن سلسلة Wizard، ويتميز بأداء تنافسي عالي.",
"mimo-v2-flash.description": "MiMo-V2-Flash أصبح الآن مفتوح المصدر رسميًا! هذا نموذج MoE (مزيج من الخبراء) مصمم خصيصًا لتحقيق كفاءة استدلال قصوى، مع 309 مليار معلمة إجمالية (15 مليار مفعلة). من خلال الابتكارات في بنية هجينة للانتباه وتسريع الاستدلال متعدد الطبقات MTP، يحتل المرتبة بين أفضل نموذجين مفتوحي المصدر عالميًا عبر العديد من مجموعات قياس أداء الوكلاء. قدراته في البرمجة تتفوق على جميع النماذج مفتوحة المصدر وتنافس النماذج المغلقة الرائدة مثل Claude 4.5 Sonnet، مع تحمل 2.5% فقط من تكلفة الاستدلال وتقديم سرعة توليد أسرع بمقدار 2×—مما يدفع كفاءة استدلال النماذج الكبيرة إلى أقصى حد.",
"mimo-v2-omni.description": "MiMo-V2-Omni مصمم خصيصًا للتفاعل والتنفيذ متعدد الوسائط في سيناريوهات العالم الحقيقي. قمنا ببناء أساس كامل الوسائط من الصفر، مدمجين النصوص، والرؤية، والصوت، وموحدين بين \"الإدراك\" و\"التنفيذ\" ضمن بنية واحدة. هذا لا يكسر فقط القيود التقليدية للنماذج التي تركز على الفهم على حساب التنفيذ، ولكنه يمنح النموذج أيضًا قدرات أصلية في الإدراك متعدد الوسائط، واستخدام الأدوات، وتنفيذ الوظائف، وتشغيل واجهات المستخدم الرسومية. يمكن لـ MiMo-V2-Omni التكامل بسلاسة مع أطر الوكلاء الرئيسية، محققًا قفزة من الفهم إلى التحكم مع خفض كبير في عوائق نشر الوكلاء متعدد الوسائط بالكامل.",
"mimo-v2-pro.description": "Xiaomi MiMo-V2-Pro مصمم خصيصًا لتدفقات عمل الوكلاء عالية الكثافة في سيناريوهات العالم الحقيقي. يتميز بأكثر من تريليون معلمة إجمالية (42 مليار معلمة مفعلة)، ويتبنى بنية هجينة مبتكرة للانتباه، ويدعم طول سياق فائق يصل إلى مليون رمز. استنادًا إلى نموذج أساسي قوي، نقوم باستمرار بتوسيع الموارد الحسابية عبر نطاق أوسع من سيناريوهات الوكلاء، مما يوسع مساحة العمل الذكية بشكل كبير ويحقق تعميمًا كبيرًا—من البرمجة إلى تنفيذ المهام في العالم الحقيقي (\"المخلب\").",
"minicpm-v.description": "MiniCPM-V هو نموذج متعدد الوسائط من الجيل التالي من OpenBMB يتميز بقدرات ممتازة في التعرف البصري للنصوص وفهم الوسائط المتعددة لمجموعة واسعة من الاستخدامات.",
"minimax-m2.1.description": "MiniMax-M2.1 هو أحدث إصدار من سلسلة MiniMax، مُحسّن للبرمجة متعددة اللغات والمهام المعقدة الواقعية. كنموذج أصلي للذكاء الاصطناعي، يحقق MiniMax-M2.1 تحسينات كبيرة في الأداء، ودعم أطر الوكلاء، والتكيف مع سيناريوهات متعددة، بهدف مساعدة الأفراد والشركات على تبني نمط حياة وعمل قائم على الذكاء الاصطناعي بسرعة أكبر.",
"minimax-m2.5.description": "MiniMax-M2.5 هو نموذج لغة كبير متقدم مصمم للإنتاجية الواقعية ومهام البرمجة.",
"minimax-m2.description": "MiniMax M2 هو نموذج لغوي كبير وفعّال صُمم خصيصًا للبرمجة وسير عمل الوكلاء.",
"minimax/minimax-m2.1.description": "MiniMax-M2.1 هو نموذج لغوي كبير وخفيف الوزن ومتطور، مُحسّن للبرمجة وسير عمل الوكلاء وتطوير التطبيقات الحديثة، ويقدم مخرجات أنظف وأكثر إيجازًا واستجابة أسرع.",
"minimax/minimax-m2.description": "MiniMax-M2 هو نموذج عالي القيمة يتميز في مهام البرمجة والوكلاء في العديد من سيناريوهات الهندسة.",
"minimaxai/minimax-m2.1.description": "MiniMax-M2.1 هو نموذج MoE صغير وسريع وفعال من حيث التكلفة مصمم لأداء البرمجة والوكلاء من الدرجة الأولى.",
"minimaxai/minimax-m2.5.description": "MiniMax-M2.5 هو أحدث نموذج لغة كبير من MiniMax، يتميز ببنية Mixture-of-Experts (MoE) مع إجمالي 229 مليار معلمة. يحقق أداءً رائدًا في الصناعة في البرمجة، استدعاء أدوات الوكيل، مهام البحث، وسيناريوهات المكتب.",
"minimaxai/minimax-m2.description": "MiniMax-M2 هو نموذج MoE مدمج وسريع وفعّال من حيث التكلفة (230 مليار إجمالي، 10 مليارات نشطة) صُمم لتحقيق أداء رفيع المستوى في البرمجة ومهام الوكلاء مع الحفاظ على ذكاء عام قوي. يتميز بتحرير ملفات متعددة، وتشغيل الكود وتصحيحه، والتحقق من الاختبارات، وسلاسل أدوات معقدة.",
"ministral-3b-latest.description": "Ministral 3B هو النموذج الرائد من Mistral للأجهزة الطرفية.",
"ministral-8b-latest.description": "Ministral 8B هو نموذج فعال من حيث التكلفة من Mistral للأجهزة الطرفية.",
"mistral-ai/Mistral-Large-2411.description": "النموذج الرئيسي من Mistral للمهام المعقدة التي تتطلب استدلالًا واسع النطاق أو تخصصًا (توليد نصوص اصطناعية، توليد كود، استرجاع معلومات، أو وكلاء).",
"mistral-ai/Mistral-Nemo.description": "Mistral Nemo هو نموذج لغوي متقدم يتميز بأحدث تقنيات الاستدلال والمعرفة العالمية والبرمجة بالنسبة لحجمه.",
"mistral-ai/mistral-small-2503.description": "Mistral Small مناسب لأي مهمة لغوية تتطلب كفاءة عالية وزمن استجابة منخفض.",
"mistral-large-instruct.description": "Mistral-Large-Instruct-2407 هو نموذج لغوي كثيف متقدم يحتوي على 123 مليار معامل، يتميز بأحدث تقنيات الاستدلال والمعرفة والبرمجة.",
"mistral-large-latest.description": "Mistral Large هو النموذج الرئيسي، قوي في المهام متعددة اللغات، والاستدلال المعقد، وتوليد الكود—مثالي للتطبيقات المتقدمة.",
"mistral-large.description": "Mixtral Large هو النموذج الرئيسي من Mistral، يجمع بين توليد الكود، والرياضيات، والاستدلال مع نافذة سياق 128K.",
"mistral-medium-latest.description": "Mistral Medium 3.1 يقدم أداءً رائدًا بتكلفة أقل بـ 8 مرات ويُبسط نشر المؤسسات.",
"mistral-nemo-instruct.description": "Mistral-Nemo-Instruct-2407 هو الإصدار الموجه بالتعليمات من Mistral-Nemo-Base-2407.",
"mistral-nemo.description": "Mistral Nemo هو نموذج فعال يحتوي على 12 مليار معامل من Mistral AI وNVIDIA.",
"mistral-small-latest.description": "Mistral Small هو خيار سريع وموثوق وفعال من حيث التكلفة للترجمة، والتلخيص، وتحليل المشاعر.",
"mistral-small.description": "Mistral Small مناسب لأي مهمة لغوية تتطلب كفاءة عالية وزمن استجابة منخفض.",
"mistral.description": "Mistral هو نموذج 7B من Mistral AI، مناسب لمهام لغوية متنوعة.",
"mistral/codestral-embed.description": "نموذج تضمين الكود مخصص لتضمين قواعد الكود والمستودعات لدعم مساعدي البرمجة.",
"mistral/codestral.description": "Mistral Codestral 25.01 هو نموذج برمجة متقدم يتميز بزمن استجابة منخفض واستخدام عالي التكرار. يدعم أكثر من 80 لغة ويتفوق في FIM، وتصحيح الكود، وتوليد الاختبارات.",
"mistral/devstral-small.description": "Devstral هو نموذج لغوي وكيل لمهام هندسة البرمجيات، مما يجعله خيارًا قويًا لوكلاء البرمجيات.",
"mistral/magistral-medium.description": "تفكير معقد مدعوم بفهم عميق واستدلال شفاف يمكن تتبعه والتحقق منه. يحافظ على استدلال عالي الدقة عبر اللغات حتى أثناء المهمة.",
"mistral/magistral-small.description": "تفكير معقد مدعوم بفهم عميق واستدلال شفاف يمكن تتبعه والتحقق منه. يحافظ على استدلال عالي الدقة عبر اللغات حتى أثناء المهمة.",
"mistral/ministral-3b.description": "نموذج مدمج وفعّال للمهام على الأجهزة مثل المساعدات والتحليلات المحلية، يقدم أداءً بزمن استجابة منخفض.",
"mistral/ministral-8b.description": "نموذج أقوى مع استدلال أسرع وكفاءة في استخدام الذاكرة، مثالي لسير العمل المعقد وتطبيقات الأجهزة الطرفية المتطلبة.",
"mistral/mistral-embed.description": "نموذج تضمين نصوص عام للبحث الدلالي، والتشابه، والتجميع، وسير عمل استرجاع المعلومات.",
"mistral/mistral-large.description": "Mistral Large مثالي للمهام المعقدة التي تتطلب استدلالًا قويًا أو تخصصًا—مثل توليد النصوص الاصطناعية، وتوليد الكود، واسترجاع المعلومات، أو الوكلاء.",
"mistral/mistral-small.description": "Mistral Small مثالي للمهام البسيطة القابلة للتجميع مثل التصنيف، ودعم العملاء، أو توليد النصوص، ويقدم أداءً ممتازًا بسعر مناسب.",
"mistral/mixtral-8x22b-instruct.description": "نموذج Instruct 8x22B. نموذج MoE مفتوح المصدر مقدم من Mistral.",
"mistral/pixtral-12b.description": "نموذج يحتوي على 12 مليار معامل يتميز بفهم الصور والنصوص.",
"mistral/pixtral-large.description": "Pixtral Large هو النموذج الثاني في عائلة النماذج متعددة الوسائط لدينا، يتميز بفهم متقدم للصور. يتعامل مع المستندات، والمخططات، والصور الطبيعية مع الحفاظ على فهم نصوص رائد كما في Mistral Large 2.",
"mistralai/Mistral-7B-Instruct-v0.1.description": "Mistral (7B) Instruct معروف بأدائه القوي في العديد من المهام اللغوية.",
"mistralai/Mistral-7B-Instruct-v0.2.description": "Mistral (7B) Instruct v0.2 يحسن التعامل مع التعليمات ودقة النتائج.",
"mistralai/Mistral-7B-Instruct-v0.3.description": "Mistral (7B) Instruct v0.3 يقدم كفاءة في الحوسبة وفهم لغوي قوي لمجموعة واسعة من الاستخدامات.",
"mistralai/Mistral-7B-v0.1.description": "Mistral 7B هو نموذج مدمج وعالي الأداء، قوي في المعالجة الدفعية والمهام البسيطة مثل التصنيف وتوليد النصوص، مع استدلال متين.",
"mistralai/Mixtral-8x22B-Instruct-v0.1.description": "Mixtral-8x22B Instruct (141B) هو نموذج لغوي كبير جدًا للمهام الثقيلة.",
"mistralai/Mixtral-8x7B-Instruct-v0.1.description": "Mixtral-8x7B Instruct (46.7B) يوفر قدرة عالية لمعالجة البيانات على نطاق واسع.",
"mistralai/Mixtral-8x7B-v0.1.description": "Mixtral 8x7B هو نموذج MoE متفرق يعزز سرعة الاستدلال، مناسب للمهام متعددة اللغات وتوليد الكود.",
"mistralai/mistral-nemo.description": "Mistral Nemo هو نموذج يحتوي على 7.3 مليار معامل يدعم لغات متعددة ويتميز بأداء قوي في البرمجة.",
"mixtral-8x7b-32768.description": "Mixtral 8x7B يوفر حوسبة متوازية مقاومة للأخطاء للمهام المعقدة.",
"mixtral.description": "Mixtral هو نموذج MoE من Mistral AI بوزن مفتوح، يدعم توليد الشيفرات وفهم اللغة.",
"mixtral:8x22b.description": "Mixtral هو نموذج MoE من Mistral AI بوزن مفتوح، يدعم توليد الشيفرات وفهم اللغة.",
"moonshot-v1-128k-vision-preview.description": "نماذج Kimi للرؤية (بما في ذلك moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) قادرة على فهم محتوى الصور مثل النصوص، الألوان، وأشكال الكائنات.",
"moonshot-v1-128k.description": "Moonshot V1 128K يوفر سياقًا طويلًا للغاية لتوليد نصوص طويلة جدًا، حيث يتعامل مع ما يصل إلى 128,000 رمز، مما يجعله مثاليًا للبحث، والأكاديميا، والوثائق الكبيرة.",
"moonshot-v1-32k-vision-preview.description": "نماذج Kimi للرؤية (بما في ذلك moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) قادرة على فهم محتوى الصور مثل النصوص، الألوان، وأشكال الكائنات.",
"moonshot-v1-32k.description": "Moonshot V1 32K يدعم 32,768 رمزًا لسياق متوسط الطول، وهو مثالي للوثائق الطويلة والحوارات المعقدة في إنشاء المحتوى، والتقارير، وأنظمة الدردشة.",
"moonshot-v1-8k-vision-preview.description": "نماذج Kimi للرؤية (بما في ذلك moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) قادرة على فهم محتوى الصور مثل النصوص، الألوان، وأشكال الكائنات.",
"moonshot-v1-8k.description": "Moonshot V1 8K مُحسّن لتوليد النصوص القصيرة بكفاءة عالية، حيث يتعامل مع 8,192 رمزًا للمحادثات القصيرة، والملاحظات، والمحتوى السريع.",
"moonshotai/Kimi-Dev-72B.description": "Kimi-Dev-72B هو نموذج مفتوح المصدر للبرمجة تم تحسينه باستخدام التعلم المعزز على نطاق واسع لإنتاج تصحيحات قوية وجاهزة للإنتاج. يحقق نسبة 60.4٪ على SWE-bench Verified، مسجلاً رقمًا قياسيًا جديدًا للنماذج المفتوحة في مهام هندسة البرمجيات الآلية مثل إصلاح الأخطاء ومراجعة الشيفرة.",
"moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج MoE من الدرجة الأولى يحتوي على تريليون معلمة إجمالية و32 مليار معلمة نشطة. من أبرز ميزاته الذكاء البرمجي القوي، وتحسينات كبيرة في اختبارات الأداء والمهام الواقعية، بالإضافة إلى تحسينات في جمالية واجهات الاستخدام وسهولة البرمجة الأمامية.",
"moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking هو أحدث وأقوى نموذج تفكير مفتوح المصدر. يوسع بشكل كبير عمق التفكير متعدد الخطوات ويحافظ على استخدام الأدوات المستقر عبر 200-300 استدعاء متتالي، محققًا أرقامًا قياسية جديدة في Humanity's Last Exam (HLE)، BrowseComp، ومعايير أخرى. يتفوق في البرمجة، الرياضيات، المنطق، وسيناريوهات الوكيل. يعتمد على بنية MoE مع ~1 تريليون معلمة إجمالية، ويدعم نافذة سياق 256K واستدعاء الأدوات.",
"moonshotai/kimi-k2-0711.description": "Kimi K2 0711 هو إصدار موجه من سلسلة Kimi، مناسب للبرمجة عالية الجودة واستخدام الأدوات.",
"moonshotai/kimi-k2-0905.description": "Kimi K2 0905 هو تحديث يعزز أداء السياق والتفكير مع تحسينات في البرمجة.",
"moonshotai/kimi-k2-instruct-0905.description": "نموذج kimi-k2-0905-preview يدعم نافذة سياق بحجم 256K، مع برمجة وكيلة أقوى، وشيفرة أمامية أكثر صقلًا وعملية، وفهم أفضل للسياق.",
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo هو إصدار عالي السرعة من Kimi K2 Thinking، يقلل بشكل كبير من زمن الاستجابة مع الحفاظ على عمق التفكير.",
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking هو نموذج التفكير من Moonshot، مُحسّن لمهام التفكير العميق، مع قدرات عامة كوكلاء.",
"moonshotai/kimi-k2.5.description": "Kimi K2.5 هو النموذج الأكثر ذكاءً من Kimi حتى الآن، يتميز بهندسة متعددة الوسائط أصلية.",
"moonshotai/kimi-k2.description": "Kimi K2 هو نموذج MoE كبير من Moonshot AI يحتوي على تريليون معلمة إجمالية و32 مليار معلمة نشطة لكل تمرير أمامي، مُحسّن لقدرات الوكلاء بما في ذلك استخدام الأدوات المتقدمة، والتفكير، وتوليد الشيفرة.",
"morph/morph-v3-fast.description": "Morph يقدم نموذجًا متخصصًا لتطبيق تغييرات الشيفرة المقترحة من نماذج متقدمة (مثل Claude أو GPT-4o) على ملفاتك الحالية بسرعة تزيد عن 4500 رمز/ثانية. يُعد الخطوة الأخيرة في سير عمل البرمجة بالذكاء الاصطناعي ويدعم 16k من رموز الإدخال/الإخراج.",
"morph/morph-v3-large.description": "Morph يقدم نموذجًا متخصصًا لتطبيق تغييرات الشيفرة المقترحة من نماذج متقدمة (مثل Claude أو GPT-4o) على ملفاتك الحالية بسرعة تزيد عن 2500 رمز/ثانية. يُعد الخطوة الأخيرة في سير عمل البرمجة بالذكاء الاصطناعي ويدعم 16k من رموز الإدخال/الإخراج.",
"musesteamer-air-image.description": "musesteamer-air-image هو نموذج لتوليد الصور تم تطويره بواسطة فريق البحث في Baidu لتقديم أداء استثنائي من حيث التكلفة. يمكنه بسرعة توليد صور واضحة ومتسقة الحركة بناءً على مطالبات المستخدم، مما يحول أوصاف المستخدم بسهولة إلى صور.",
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B هو إصدار محدث من Nous Hermes 2 باستخدام أحدث مجموعات البيانات المطورة داخليًا.",
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B هو نموذج LLM مخصص من NVIDIA لتحسين الفائدة. يحقق أداءً قويًا في Arena Hard وAlpacaEval 2 LC وGPT-4-Turbo MT-Bench، ويحتل المرتبة الأولى في جميع معايير المحاذاة التلقائية الثلاثة حتى 1 أكتوبر 2024. تم تدريبه من Llama-3.1-70B-Instruct باستخدام RLHF (REINFORCE)، وLlama-3.1-Nemotron-70B-Reward، ومطالبات HelpSteer2-Preference.",
"nvidia/llama-3.1-nemotron-51b-instruct.description": "نموذج لغوي مميز يقدم دقة وكفاءة استثنائية.",
"nvidia/llama-3.1-nemotron-70b-instruct.description": "Llama-3.1-Nemotron-70B-Instruct هو نموذج مخصص من NVIDIA مصمم لتحسين فائدة استجابات LLM.",
"o1-mini.description": "o1-mini هو نموذج تفكير سريع وفعال من حيث التكلفة مصمم للبرمجة، الرياضيات، والعلوم. يحتوي على سياق 128K وحد أقصى للمعرفة في أكتوبر 2023.",
"o1-preview.description": "o1 هو نموذج التفكير الجديد من OpenAI للمهام المعقدة التي تتطلب معرفة واسعة. يحتوي على سياق 128K وحد أقصى للمعرفة في أكتوبر 2023.",
"o1-pro.description": "تم تدريب سلسلة o1 باستخدام التعلم المعزز للتفكير قبل الإجابة والتعامل مع التفكير المعقد. يستخدم o1-pro موارد حسابية أكبر للتفكير الأعمق وتقديم إجابات عالية الجودة باستمرار.",
"o1.description": "o1 هو نموذج التفكير الجديد من OpenAI بمدخلات نصية وصورية ومخرجات نصية، مناسب للمهام المعقدة التي تتطلب معرفة واسعة. يحتوي على نافذة سياق بحجم 200K وتاريخ معرفة حتى أكتوبر 2023.",
"o3-2025-04-16.description": "o3 هو نموذج التفكير الجديد من OpenAI بمدخلات نصية وصورية ومخرجات نصية للمهام المعقدة التي تتطلب معرفة واسعة.",
"o3-deep-research.description": "o3-deep-research هو نموذجنا الأكثر تقدمًا للبحث العميق في المهام متعددة الخطوات المعقدة. يمكنه البحث في الويب والوصول إلى بياناتك عبر موصلات MCP.",
"o3-mini.description": "o3-mini هو أحدث نموذج تفكير صغير لدينا، يقدم ذكاءً أعلى بنفس التكلفة وزمن الاستجابة المستهدف مثل o1-mini.",
"o3-pro-2025-06-10.description": "o3 Pro هو نموذج التفكير الجديد من OpenAI بمدخلات نصية وصورية ومخرجات نصية للمهام المعقدة التي تتطلب معرفة واسعة.",
"o3-pro.description": "o3-pro يستخدم موارد حسابية أكبر للتفكير الأعمق وتقديم إجابات أفضل باستمرار؛ متاح فقط عبر واجهة Responses API.",
"o3.description": "o3 هو نموذج شامل قوي يضع معيارًا جديدًا في الرياضيات، والعلوم، والبرمجة، والتفكير البصري. يتفوق في الكتابة التقنية واتباع التعليمات، ويمكنه تحليل النصوص، والشيفرة، والصور لحل المشكلات متعددة الخطوات.",
"o4-mini-2025-04-16.description": "o4-mini هو نموذج تفكير من OpenAI بمدخلات نصية وصورية ومخرجات نصية، مناسب للمهام المعقدة التي تتطلب معرفة واسعة، مع نافذة سياق بحجم 200K.",
"o4-mini-deep-research.description": "o4-mini-deep-research هو نموذج بحث عميق أسرع وأكثر توفيرًا للمهام البحثية متعددة الخطوات المعقدة. يمكنه البحث في الويب والوصول إلى بياناتك عبر موصلات MCP.",
"o4-mini.description": "o4-mini هو أحدث نموذج صغير من سلسلة o، مُحسّن للتفكير السريع والفعال مع كفاءة عالية في مهام البرمجة والرؤية.",
"open-codestral-mamba.description": "Codestral Mamba هو نموذج لغة من نوع Mamba 2 يركز على توليد الشيفرات، ويدعم مهام البرمجة المتقدمة والتفكير المنطقي.",
"open-mistral-7b.description": "Mistral 7B هو نموذج صغير الحجم عالي الأداء، قوي في المعالجة الدُفعية والمهام البسيطة مثل التصنيف وتوليد النصوص، مع قدرات منطقية قوية.",
"open-mistral-nemo.description": "Mistral Nemo هو نموذج بحجم 12B تم تطويره بالتعاون مع Nvidia، ويقدم أداءً قويًا في التفكير والبرمجة مع سهولة في التكامل.",
"open-mixtral-8x22b.description": "Mixtral 8x22B هو نموذج MoE أكبر للمهام المعقدة، يوفر قدرات منطقية قوية وإنتاجية أعلى.",
"open-mixtral-8x7b.description": "Mixtral 8x7B هو نموذج MoE متفرق يعزز سرعة الاستدلال، مناسب للمهام متعددة اللغات وتوليد الشيفرات.",
"openai/gpt-3.5-turbo-instruct.description": "قدرات مشابهة لنماذج GPT-3، متوافقة مع نقاط نهاية الإكمال القديمة بدلاً من الدردشة.",
"openai/gpt-3.5-turbo.description": "أقوى وأوفر نماذج GPT-3.5 من OpenAI، محسّن للدردشة مع أداء قوي في الإكمالات التقليدية.",
"openai/gpt-4-turbo.description": "gpt-4-turbo من OpenAI يتمتع بمعرفة عامة واسعة وخبرة تخصصية، يتبع تعليمات اللغة الطبيعية المعقدة ويحل المشكلات الصعبة بدقة. تاريخ التحديث المعرفي: أبريل 2023، مع نافذة سياق 128K.",
"openai/gpt-4.1-mini.description": "GPT-4.1 Mini يقدم زمن استجابة أقل وقيمة أفضل للمهام متوسطة السياق.",
"openai/gpt-4.1-nano.description": "GPT-4.1 Nano هو خيار منخفض التكلفة وزمن استجابة منخفض للمحادثات القصيرة المتكررة أو التصنيف.",
"openai/gpt-4.1.description": "سلسلة GPT-4.1 توفر نوافذ سياق أكبر وقدرات هندسية ومنطقية أقوى.",
"openai/gpt-4o-mini.description": "GPT-4o-mini هو إصدار صغير وسريع من GPT-4o للاستخدام متعدد الوسائط بزمن استجابة منخفض.",
"openai/gpt-4o.description": "عائلة GPT-4o هي نموذج Omni من OpenAI يدعم إدخال نصوص وصور وإخراج نصي.",
"openai/gpt-5-chat.description": "GPT-5 Chat هو إصدار من GPT-5 محسّن للمحادثات بزمن استجابة أقل لتفاعل أفضل.",
"openai/gpt-5-codex.description": "GPT-5-Codex هو إصدار من GPT-5 محسّن أكثر للبرمجة وتدفقات العمل البرمجية واسعة النطاق.",
"openai/gpt-5-mini.description": "GPT-5 Mini هو إصدار أصغر من GPT-5 للسيناريوهات منخفضة التكلفة وزمن الاستجابة.",
"openai/gpt-5-nano.description": "GPT-5 Nano هو الإصدار فائق الصغر للسيناريوهات ذات القيود الصارمة على التكلفة وزمن الاستجابة.",
"openai/gpt-5-pro.description": "GPT-5 Pro هو النموذج الرائد من OpenAI، يوفر قدرات منطقية قوية وتوليد شيفرات وميزات على مستوى المؤسسات، مع توجيه ذكي أثناء وقت التنفيذ وسياسات أمان أكثر صرامة.",
"openai/gpt-5.1-chat.description": "GPT-5.1 Chat هو العضو الخفيف في عائلة GPT-5.1، محسّن للمحادثات بزمن استجابة منخفض مع الحفاظ على قدرات منطقية قوية وتنفيذ التعليمات.",
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini هو إصدار أصغر وأسرع من GPT-5.1-Codex، مثالي للبرمجة في سيناريوهات حساسة للتكلفة وزمن الاستجابة.",
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex هو إصدار من GPT-5.1 محسّن لهندسة البرمجيات وتدفقات العمل البرمجية، مناسب لإعادة هيكلة واسعة، وتصحيح الأخطاء المعقدة، ومهام البرمجة الذاتية الطويلة.",
"openai/gpt-5.1.description": "GPT-5.1 هو النموذج الرائد الأحدث في سلسلة GPT-5، مع تحسينات كبيرة في التفكير العام، اتباع التعليمات، وطبيعية المحادثة، مناسب لمجموعة واسعة من المهام.",
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat هو إصدار ChatGPT لتجربة أحدث تحسينات المحادثة.",
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro: إصدار أكثر ذكاءً ودقة من GPT-5.2 (لواجهة Responses API فقط)، مناسب للمشكلات الصعبة والاستدلال متعدد الأدوار الطويل.",
"openai/gpt-5.2.description": "GPT-5.2 هو نموذج رائد للبرمجة وسير العمل بالوكيل، يتميز باستدلال أقوى وأداء أفضل في السياقات الطويلة.",
"openai/gpt-5.description": "GPT-5 هو نموذج عالي الأداء من OpenAI لمجموعة واسعة من المهام الإنتاجية والبحثية.",
"openai/gpt-oss-120b.description": "نموذج لغة كبير عام القدرات يتمتع بتفكير قوي وقابل للتحكم.",
"openai/gpt-oss-20b.description": "نموذج لغة صغير الحجم بوزن مفتوح، محسّن لزمن استجابة منخفض وبيئات محدودة الموارد، بما في ذلك النشر المحلي وعلى الأطراف.",
"openai/o1-mini.description": "o1-mini هو نموذج تفكير سريع وفعال من حيث التكلفة مصمم للبرمجة والرياضيات والعلوم. يدعم سياق 128K وتاريخ معرفة حتى أكتوبر 2023.",
"openai/o1-preview.description": "o1 هو نموذج التفكير الجديد من OpenAI للمهام المعقدة التي تتطلب معرفة واسعة. يدعم سياق 128K وتاريخ معرفة حتى أكتوبر 2023.",
"openai/o1.description": "OpenAI o1 هو نموذج تفكير رائد مصمم لحل المشكلات المعقدة التي تتطلب تفكيرًا عميقًا، ويقدم تفكيرًا قويًا ودقة أعلى في المهام متعددة الخطوات.",
"openai/o3-mini-high.description": "o3-mini (تفكير عالي) يقدم ذكاءً أعلى بنفس تكلفة وزمن استجابة o1-mini.",
"openai/o3-mini.description": "o3-mini هو أحدث نموذج تفكير صغير من OpenAI، يقدم ذكاءً أعلى بنفس تكلفة وزمن استجابة o1-mini.",
"openai/o3.description": "OpenAI o3 هو أقوى نموذج تفكير، يحقق أداءً رائدًا في البرمجة والرياضيات والعلوم والإدراك البصري. يتفوق في الاستفسارات المعقدة متعددة الأبعاد، ويتميز بتحليل الصور والمخططات والرسوم البيانية.",
"openai/o4-mini-high.description": "o4-mini فئة التفكير العالي، محسّن للتفكير السريع والفعال مع أداء قوي في البرمجة والرؤية.",
"openai/o4-mini.description": "OpenAI o4-mini هو نموذج تفكير صغير وفعال للسيناريوهات ذات زمن الاستجابة المنخفض.",
"openai/text-embedding-3-large.description": "أقوى نموذج تضمين من OpenAI للمهام باللغة الإنجليزية وغير الإنجليزية.",
"openai/text-embedding-3-small.description": "إصدار محسّن عالي الأداء من نموذج تضمين ada.",
"openai/text-embedding-ada-002.description": "نموذج تضمين النصوص القديم من OpenAI.",
"openrouter/auto.description": "استنادًا إلى طول السياق والموضوع والتعقيد، يتم توجيه طلبك إلى Llama 3 70B Instruct أو Claude 3.5 Sonnet (بمراقبة ذاتية) أو GPT-4o.",
"oswe-vscode-prime.description": "Raptor mini هو نموذج تجريبي محسن لمهام البرمجة.",
"oswe-vscode-secondary.description": "Raptor mini هو نموذج تجريبي محسن لمهام البرمجة.",
"paratera/deepseek-v3.2.description": "DeepSeek V3.2 هو نموذج يوازن بين الكفاءة الحسابية العالية وأداء الاستدلال والوكيل الممتاز.",
"perplexity/sonar-pro.description": "المنتج الرائد من Perplexity مع دعم البحث، يدعم الاستفسارات المتقدمة والمتابعة.",
"perplexity/sonar-reasoning-pro.description": "نموذج متقدم يركز على التفكير، ينتج سلسلة تفكير (CoT) مع بحث محسّن، بما في ذلك استعلامات بحث متعددة لكل طلب.",
"perplexity/sonar-reasoning.description": "نموذج يركز على التفكير، ينتج سلسلة تفكير (CoT) مع شروحات مفصلة مدعومة بالبحث.",
"perplexity/sonar.description": "منتج خفيف من Perplexity مع دعم البحث، أسرع وأرخص من Sonar Pro.",
"phi3.description": "Phi-3 هو نموذج مفتوح وخفيف من Microsoft للتكامل الفعال والتفكير واسع النطاق.",
"phi3:14b.description": "Phi-3 هو نموذج مفتوح وخفيف من Microsoft للتكامل الفعال والتفكير واسع النطاق.",
"pixtral-12b-2409.description": "Pixtral يتميز بفهم الرسوم البيانية/الصور، والإجابة على الأسئلة من المستندات، والتفكير متعدد الوسائط، واتباع التعليمات. يستوعب الصور بدقة ونسبة أبعاد أصلية ويدعم أي عدد من الصور ضمن نافذة سياق 128K.",
"pixtral-large-latest.description": "Pixtral Large هو نموذج متعدد الوسائط مفتوح يحتوي على 124 مليار معامل، مبني على Mistral Large 2، الثاني في عائلتنا متعددة الوسائط مع فهم متقدم للصور.",
"pro-128k.description": "Spark Pro 128K يوفر سعة سياق كبيرة جدًا تصل إلى 128K، مثالي للمستندات الطويلة التي تتطلب تحليل نص كامل وتماسك بعيد المدى، مع منطق سلس ودعم استشهاد متنوع في المناقشات المعقدة.",
"pro-deepseek-r1.description": "نموذج خدمة مخصص للمؤسسات مع تزامن مدمج.",
"pro-deepseek-v3.description": "نموذج خدمة مخصص للمؤسسات مع تزامن مدمج.",
"qianfan-70b.description": "Qianfan 70B هو نموذج صيني كبير لتوليد عالي الجودة وتفكير معقد.",
"qianfan-8b.description": "Qianfan 8B هو نموذج عام متوسط الحجم يوازن بين التكلفة والجودة لتوليد النصوص والإجابة على الأسئلة.",
"qianfan-agent-intent-32k.description": "Qianfan Agent Intent 32K يستهدف التعرف على النوايا وتنظيم الوكلاء مع دعم سياق طويل.",
"qianfan-agent-lite-8k.description": "Qianfan Agent Lite 8K هو نموذج وكيل خفيف للحوار متعدد الأدوار منخفض التكلفة وتدفقات العمل.",
"qianfan-check-vl.description": "Qianfan Check VL هو نموذج مراجعة محتوى متعدد الوسائط لمهام التوافق والتعرف على الصور والنصوص.",
"qianfan-composition.description": "Qianfan Composition هو نموذج إنشاء متعدد الوسائط لفهم وتوليد الصور والنصوص المختلطة.",
"qianfan-engcard-vl.description": "Qianfan EngCard VL هو نموذج تعرف متعدد الوسائط يركز على السيناريوهات الإنجليزية.",
"qianfan-llama-vl-8b.description": "Qianfan Llama VL 8B هو نموذج متعدد الوسائط مبني على Llama لفهم عام للصور والنصوص.",
"qianfan-multipicocr.description": "Qianfan MultiPicOCR هو نموذج OCR متعدد الصور لاكتشاف النصوص والتعرف عليها عبر الصور.",
"qianfan-qi-vl.description": "Qianfan QI VL هو نموذج سؤال وجواب متعدد الوسائط للاسترجاع الدقيق والإجابة في سيناريوهات الصور والنصوص المعقدة.",
"qianfan-singlepicocr.description": "Qianfan SinglePicOCR هو نموذج OCR لصورة واحدة بدقة عالية في التعرف على الأحرف.",
"qianfan-vl-70b.description": "Qianfan VL 70B هو نموذج لغة بصري كبير لفهم معقد للنصوص والصور.",
"qianfan-vl-8b.description": "Qianfan VL 8B هو نموذج لغة بصري خفيف الوزن مخصص للإجابة اليومية على الأسئلة وتحليل الصور والنصوص.",
"qvq-72b-preview.description": "QVQ-72B-Preview هو نموذج بحث تجريبي من Qwen يركز على تحسين الاستدلال البصري.",
"qvq-max.description": "نموذج الاستدلال البصري Qwen QVQ يدعم إدخال الصور وإخراج سلسلة التفكير، ويتميز بأداء قوي في الرياضيات، البرمجة، التحليل البصري، الإبداع، والمهام العامة.",
"qvq-plus.description": "نموذج استدلال بصري يدعم إدخال الصور وإخراج سلسلة التفكير. سلسلة qvq-plus تتبع qvq-max وتوفر استدلالًا أسرع مع توازن أفضل بين الجودة والتكلفة.",
"qwen-coder-plus.description": "نموذج Qwen للبرمجة.",
"qwen-coder-turbo-latest.description": "نموذج Qwen للبرمجة.",
"qwen-coder-turbo.description": "نموذج Qwen للبرمجة.",
"qwen-flash.description": "أسرع وأقل نماذج Qwen تكلفة، مثالي للمهام البسيطة.",
"qwen-image-2.0-pro.description": "نموذج الإصدار الكامل من سلسلة Qwen-Image-2.0 يدمج توليد الصور وتحريرها في قدرة موحدة. يدعم تقديم نصوص أكثر احترافية مع قدرة تعليم تصل إلى 1k رمز، ويوفر تفاصيل بصرية أكثر دقة وواقعية، ويُمكّن من تصوير دقيق للمشاهد الواقعية، ويظهر توافقًا أقوى مع التعليمات النصية. يوفر نموذج الإصدار الكامل أقوى قدرة على تقديم النصوص وأعلى مستوى من الواقعية ضمن سلسلة 2.0.",
"qwen-image-2.0.description": "نموذج الإصدار المُسرّع من سلسلة Qwen-Image-2.0 يدمج توليد الصور وتحريرها في قدرة موحدة. يدعم تقديم نصوص أكثر احترافية مع قدرة تعليم تصل إلى 1k رمز، ويوفر تفاصيل بصرية أكثر دقة وواقعية، ويُمكّن من تصوير دقيق للمشاهد الواقعية، ويظهر توافقًا أقوى مع التعليمات النصية. يحقق الإصدار المُسرّع التوازن الأمثل بين جودة النموذج والأداء بشكل فعال.",
"qwen-image-edit-max.description": "نموذج تحرير الصور Qwen يدعم إدخال صور متعددة وإخراج صور متعددة، مما يمكن من تحرير النصوص داخل الصور بدقة، وإضافة أو إزالة أو نقل الكائنات، وتعديل حركة الموضوع، ونقل أنماط الصور، وتحسين التفاصيل البصرية.",
"qwen-image-edit-plus.description": "نموذج تحرير الصور Qwen يدعم إدخال صور متعددة وإخراج صور متعددة، مما يمكن من تحرير النصوص داخل الصور بدقة، وإضافة أو إزالة أو نقل الكائنات، وتعديل حركة الموضوع، ونقل أنماط الصور، وتحسين التفاصيل البصرية.",
"qwen-image-edit.description": "Qwen Image Edit هو نموذج تحويل صورة إلى صورة يقوم بتحرير الصور بناءً على صور الإدخال والتعليمات النصية، مما يتيح تعديلات دقيقة وتحولات إبداعية.",
"qwen-image-max.description": "نموذج توليد الصور Qwen (سلسلة Max) يقدم واقعية محسّنة وطبيعية بصرية مقارنة بسلسلة Plus، مما يقلل بشكل فعال من العيوب الناتجة عن الذكاء الاصطناعي، ويظهر أداءً رائعًا في مظهر الإنسان، تفاصيل القوام، وتقديم النصوص.",
"qwen-image-plus.description": "يدعم مجموعة واسعة من الأنماط الفنية ويتميز بشكل خاص في تقديم النصوص المعقدة داخل الصور، مما يمكن من تصميم تخطيط متكامل للنصوص والصور.",
"qwen-image.description": "Qwen-Image هو نموذج عام لتوليد الصور يدعم أنماط فنية متعددة وعرض نصوص معقدة، خاصة باللغتين الصينية والإنجليزية. يدعم تخطيطات متعددة الأسطر، نصوص على مستوى الفقرة، وتفاصيل دقيقة لتخطيطات النصوص والصور المعقدة.",
"qwen-long.description": "نموذج Qwen فائق الحجم يدعم السياقات الطويلة والدردشة عبر سيناريوهات متعددة الوثائق.",
"qwen-math-plus-latest.description": "Qwen Math هو نموذج لغوي متخصص في حل المسائل الرياضية.",
"qwen-math-plus.description": "Qwen Math هو نموذج لغوي متخصص في حل المسائل الرياضية.",
"qwen-math-turbo-latest.description": "Qwen Math هو نموذج لغوي متخصص في حل المسائل الرياضية.",
"qwen-math-turbo.description": "Qwen Math هو نموذج لغوي متخصص في حل المسائل الرياضية.",
"qwen-max.description": "نموذج Qwen فائق الحجم بمئات المليارات من المعاملات يدعم الصينية، الإنجليزية، ولغات أخرى؛ النموذج المستخدم في واجهات برمجة تطبيقات Qwen2.5 الحالية.",
"qwen-omni-turbo.description": "نماذج Qwen-Omni تدعم مدخلات متعددة الوسائط (فيديو، صوت، صور، نص) وتنتج مخرجات صوتية ونصية.",
"qwen-plus.description": "نموذج Qwen فائق الحجم ومحسن يدعم الصينية، الإنجليزية، ولغات أخرى.",
"qwen-turbo.description": "لن يتم تحديث Qwen Turbo بعد الآن؛ يُنصح باستخدام Qwen Flash بدلاً منه. نموذج Qwen فائق الحجم يدعم الصينية، الإنجليزية، ولغات أخرى.",
"qwen-vl-chat-v1.description": "يدعم Qwen VL تفاعلات مرنة تشمل إدخال صور متعددة، أسئلة وأجوبة متعددة الجولات، ومهام إبداعية.",
"qwen-vl-max-latest.description": "نموذج Qwen فائق الحجم للغة والرؤية. مقارنة بالإصدار المحسن، يعزز الاستدلال البصري واتباع التعليمات لتحقيق إدراك وفهم أقوى.",
"qwen-vl-max.description": "نموذج Qwen فائق الحجم للغة والرؤية. مقارنة بالإصدار المحسن، يعزز الاستدلال البصري واتباع التعليمات لتحقيق إدراك بصري وفهم أقوى.",
"qwen-vl-ocr.description": "Qwen OCR هو نموذج لاستخراج النصوص من المستندات، الجداول، صور الامتحانات، والكتابة اليدوية. يدعم الصينية، الإنجليزية، الفرنسية، اليابانية، الكورية، الألمانية، الروسية، الإيطالية، الفيتنامية، والعربية.",
"qwen-vl-plus-latest.description": "نموذج Qwen المحسن للغة والرؤية على نطاق واسع مع تحسينات كبيرة في التفاصيل والتعرف على النصوص، يدعم دقة تتجاوز الميجابيكسل ونسب أبعاد عشوائية.",
"qwen-vl-plus.description": "نموذج Qwen المحسن للغة والرؤية على نطاق واسع مع تحسينات كبيرة في التفاصيل والتعرف على النصوص، يدعم دقة تتجاوز الميجابيكسل ونسب أبعاد عشوائية.",
"qwen-vl-v1.description": "نموذج مدرب مسبقًا مستند إلى Qwen-7B مع وحدة رؤية مضافة ودقة إدخال صور 448.",
"qwen/qwen-2-7b-instruct.description": "Qwen2 هي سلسلة نماذج اللغة الكبيرة الجديدة من Qwen. Qwen2 7B هو نموذج قائم على المحولات يتميز بفهم لغوي قوي، وقدرات متعددة اللغات، والبرمجة، والرياضيات، والاستدلال.",
"qwen/qwen-2-7b-instruct:free.description": "Qwen2 هي عائلة جديدة من نماذج اللغة الكبيرة تتميز بفهم وتوليد أقوى.",
"qwen/qwen-2-vl-72b-instruct.description": "Qwen2-VL هو أحدث إصدار من Qwen-VL، يحقق أداءً رائدًا في معايير الرؤية مثل MathVista وDocVQA وRealWorldQA وMTVQA. يمكنه فهم أكثر من 20 دقيقة من الفيديو للإجابة على الأسئلة، الحوار، وإنشاء المحتوى بجودة عالية. كما يتعامل مع الاستدلال المعقد واتخاذ القرار، ويتكامل مع الأجهزة المحمولة والروبوتات للتصرف بناءً على السياق البصري والتعليمات النصية. بالإضافة إلى الإنجليزية والصينية، يقرأ النصوص في الصور بلغات متعددة، منها معظم اللغات الأوروبية، اليابانية، الكورية، العربية، والفيتنامية.",
"qwen/qwen-2.5-72b-instruct.description": "Qwen2.5-72B-Instruct هو أحد أحدث إصدارات نماذج اللغة الكبيرة من Alibaba Cloud. يقدم هذا النموذج تحسينات ملحوظة في البرمجة والرياضيات، ويدعم أكثر من 29 لغة (بما في ذلك الصينية والإنجليزية)، ويعزز بشكل كبير اتباع التعليمات، وفهم البيانات المنظمة، والإخراج المنظم (خاصة JSON).",
"qwen/qwen2.5-32b-instruct.description": "Qwen2.5-32B-Instruct هو أحد أحدث إصدارات نماذج اللغة الكبيرة من Alibaba Cloud. يقدم هذا النموذج تحسينات ملحوظة في البرمجة والرياضيات، ويدعم أكثر من 29 لغة (بما في ذلك الصينية والإنجليزية)، ويعزز بشكل كبير اتباع التعليمات، وفهم البيانات المنظمة، والإخراج المنظم (خاصة JSON).",
"qwen/qwen2.5-7b-instruct.description": "نموذج لغة كبير ثنائي اللغة للصينية والإنجليزية يغطي اللغة، البرمجة، الرياضيات، والاستدلال.",
"qwen/qwen2.5-coder-32b-instruct.description": "نموذج متقدم لتوليد الشيفرة، الاستدلال، والإصلاح عبر لغات البرمجة الشائعة.",
"qwen/qwen2.5-coder-7b-instruct.description": "نموذج برمجة متوسط الحجم قوي مع سياق 32K، يتميز بالبرمجة متعددة اللغات.",
"qwen/qwen3-14b.description": "Qwen3-14B هو إصدار 14B مخصص للاستدلال العام وسيناريوهات الدردشة.",
"qwen/qwen3-14b:free.description": "Qwen3-14B هو نموذج سببي كثيف يحتوي على 14.8 مليار معلمة، مصمم للاستدلال المعقد والدردشة الفعالة. يتنقل بين وضع التفكير للرياضيات، البرمجة، والمنطق، ووضع غير التفكير للدردشة العامة. تم تحسينه لاتباع التعليمات، استخدام أدوات الوكلاء، والكتابة الإبداعية بأكثر من 100 لغة ولهجة. يدعم سياق 32K أصليًا ويتوسع إلى 131K باستخدام YaRN.",
"qwen/qwen3-235b-a22b-2507.description": "Qwen3-235B-A22B-Instruct-2507 هو إصدار Instruct من سلسلة Qwen3، يوازن بين استخدام التعليمات متعددة اللغات وسيناريوهات السياق الطويل.",
"qwen/qwen3-235b-a22b-thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507 هو إصدار التفكير من Qwen3، معزز للمهام المعقدة في الرياضيات والاستدلال.",
"qwen/qwen3-235b-a22b.description": "Qwen3-235B-A22B هو نموذج MoE يحتوي على 235 مليار معامل من Qwen، مع 22 مليار نشطة في كل تمرير. يتنقل بين وضع التفكير للمهام المعقدة في الرياضيات والبرمجة، ووضع غير التفكير للدردشة الفعالة. يتميز باستدلال قوي، ودعم متعدد اللغات (أكثر من 100 لغة ولهجة)، واتباع تعليمات متقدم، واستخدام أدوات الوكلاء. يدعم سياقًا أصليًا حتى 32K ويتوسع إلى 131K باستخدام YaRN.",
"qwen/qwen3-235b-a22b:free.description": "Qwen3-235B-A22B هو نموذج MoE يحتوي على 235 مليار معامل من Qwen، مع 22 مليار نشطة في كل تمرير. يتنقل بين وضع التفكير للمهام المعقدة في الرياضيات والبرمجة، ووضع غير التفكير للدردشة الفعالة. يتميز باستدلال قوي، ودعم متعدد اللغات (أكثر من 100 لغة ولهجة)، واتباع تعليمات متقدم، واستخدام أدوات الوكلاء. يدعم سياقًا أصليًا حتى 32K ويتوسع إلى 131K باستخدام YaRN.",
"qwen/qwen3-30b-a3b.description": "Qwen3 هو الجيل الأحدث من نماذج Qwen LLM، يتميز ببنى كثيفة وMoE، ويتفوق في الاستدلال، دعم اللغات المتعددة، ومهام الوكلاء المتقدمة. يتميز بقدرته الفريدة على التبديل بين نمط التفكير للاستدلال المعقد ونمط غير التفكير للدردشة الفعالة، مما يضمن أداءً عالي الجودة ومتعدد الاستخدامات.\n\nيتفوق Qwen3 بشكل كبير على النماذج السابقة مثل QwQ وQwen2.5، ويقدم أداءً ممتازًا في الرياضيات، البرمجة، الاستدلال المنطقي، الكتابة الإبداعية، والدردشة التفاعلية. يحتوي إصدار Qwen3-30B-A3B على 30.5 مليار معلمة (3.3 مليار نشطة)، 48 طبقة، 128 خبيرًا (8 نشطين لكل مهمة)، ويدعم سياقًا يصل إلى 131 ألف باستخدام YaRN، مما يضع معيارًا جديدًا للنماذج المفتوحة.",
"qwen/qwen3-30b-a3b:free.description": "Qwen3 هو الجيل الأحدث من نماذج Qwen LLM، يتميز ببنى كثيفة وMoE، ويتفوق في الاستدلال، دعم اللغات المتعددة، ومهام الوكلاء المتقدمة. يتميز بقدرته الفريدة على التبديل بين نمط التفكير للاستدلال المعقد ونمط غير التفكير للدردشة الفعالة، مما يضمن أداءً عالي الجودة ومتعدد الاستخدامات.\n\nيتفوق Qwen3 بشكل كبير على النماذج السابقة مثل QwQ وQwen2.5، ويقدم أداءً ممتازًا في الرياضيات، البرمجة، الاستدلال المنطقي، الكتابة الإبداعية، والدردشة التفاعلية. يحتوي إصدار Qwen3-30B-A3B على 30.5 مليار معلمة (3.3 مليار نشطة)، 48 طبقة، 128 خبيرًا (8 نشطين لكل مهمة)، ويدعم سياقًا يصل إلى 131 ألف باستخدام YaRN، مما يضع معيارًا جديدًا للنماذج المفتوحة.",
"qwen/qwen3-32b.description": "Qwen3-32B هو نموذج LLM كثيف يحتوي على 32.8 مليار معلمة، مُحسَّن للاستدلال المعقد والدردشة الفعالة. يمكنه التبديل بين نمط التفكير للرياضيات والبرمجة والمنطق، ونمط غير التفكير للدردشة العامة السريعة. يتميز بأداء قوي في اتباع التعليمات، استخدام أدوات الوكلاء، والكتابة الإبداعية بأكثر من 100 لغة ولهجة. يدعم سياقًا أصليًا حتى 32 ألف ويتوسع إلى 131 ألف باستخدام YaRN.",
"qwen/qwen3-32b:free.description": "Qwen3-32B هو نموذج LLM كثيف يحتوي على 32.8 مليار معلمة، مُحسَّن للاستدلال المعقد والدردشة الفعالة. يمكنه التبديل بين نمط التفكير للرياضيات والبرمجة والمنطق، ونمط غير التفكير للدردشة العامة السريعة. يتميز بأداء قوي في اتباع التعليمات، استخدام أدوات الوكلاء، والكتابة الإبداعية بأكثر من 100 لغة ولهجة. يدعم سياقًا أصليًا حتى 32 ألف ويتوسع إلى 131 ألف باستخدام YaRN.",
"qwen/qwen3-8b:free.description": "Qwen3-8B هو نموذج LLM كثيف يحتوي على 8.2 مليار معلمة، مصمم للمهام التي تتطلب استدلالًا عاليًا ودردشة فعالة. يمكنه التبديل بين نمط التفكير للرياضيات والبرمجة والمنطق، ونمط غير التفكير للدردشة العامة. تم تحسينه لاتباع التعليمات، تكامل الوكلاء، والكتابة الإبداعية بأكثر من 100 لغة ولهجة. يدعم سياقًا أصليًا حتى 32 ألف ويتوسع إلى 131 ألف باستخدام YaRN.",
"qwen/qwen3-coder-plus.description": "Qwen3-Coder-Plus هو نموذج ترميز من سلسلة Qwen، مُحسَّن لاستخدام الأدوات المعقدة وجلسات العمل الطويلة.",
"qwen/qwen3-coder.description": "Qwen3-Coder هو نموذج من عائلة Qwen3 لتوليد الشيفرات، يتميز بفهم وتوليد الشيفرات في المستندات الطويلة.",
"qwen/qwen3-max-preview.description": "Qwen3 Max (نسخة تجريبية) هو إصدار Max المتقدم في الاستدلال ودمج الأدوات.",
"qwen/qwen3-max.description": "Qwen3 Max هو النموذج المتقدم في سلسلة Qwen3 للاستدلال متعدد اللغات ودمج الأدوات.",
"qwen/qwen3-vl-plus.description": "Qwen3 VL-Plus هو إصدار Qwen3 المحسَّن بالرؤية، مع قدرات أفضل في الاستدلال متعدد الوسائط ومعالجة الفيديو.",
"qwen/qwen3.5-122b-a10b.description": "Qwen3.5-122B-A10B هو نموذج لغة كبير متعدد الوسائط تم تطويره بواسطة فريق Qwen، مع إجمالي 122 مليار معلمة و10 مليارات معلمة مفعلة فقط. يستخدم النموذج بنية هجينة فعالة تجمع بين شبكات Gated Delta وMixture-of-Experts (MoE). يدعم طول سياق 256K، قابل للتمديد إلى حوالي مليون رمز. من خلال تدريب الدمج المبكر، يحقق النموذج قدرات أساسية موحدة للرؤية-اللغة، يدعم النصوص، الصور، وفهم الفيديو. يقدم أداءً ممتازًا عبر معايير متعددة بما في ذلك المعرفة، الاستنتاج، البرمجة، الوكلاء، الفهم البصري، والمهام متعددة اللغات، متفوقًا على GPT-5-mini وQwen3-235B-A22B في عدة مقاييس. يتم تمكين وضع التفكير افتراضيًا، يدعم استدعاء الأدوات، ويغطي 201 لغة ولهجة.",
"qwen/qwen3.5-27b.description": "Qwen3.5-27B هو نموذج لغة كبير متعدد الوسائط تم تطويره بواسطة فريق Qwen مع 27 مليار معلمة. يستخدم النموذج بنية هجينة فعالة تجمع بين شبكات Gated Delta وGated Attention. يدعم طول سياق 256K، قابل للتمديد إلى حوالي مليون رمز. من خلال تدريب الدمج المبكر، يحقق النموذج قدرات أساسية موحدة للرؤية-اللغة، يدعم النصوص، الصور، وفهم الفيديو. يقدم أداءً ممتازًا عبر معايير متعددة بما في ذلك الاستنتاج، البرمجة، الوكلاء، والفهم البصري، متفوقًا على Qwen3-235B-A22B وGPT-5-mini في عدة مقاييس. يتم تمكين وضع التفكير افتراضيًا، يدعم استدعاء الأدوات، ويغطي 201 لغة ولهجة.",
"qwen/qwen3.5-35b-a3b.description": "Qwen3.5-35B-A3B هو نموذج لغة كبير متعدد الوسائط تم تطويره بواسطة فريق Qwen، مع إجمالي 35 مليار معلمة و3 مليارات معلمة مفعلة فقط. يستخدم النموذج بنية هجينة فعالة تجمع بين شبكات Gated Delta وMixture-of-Experts (MoE). يدعم طول سياق 256K، قابل للتمديد إلى حوالي مليون رمز. من خلال تدريب الدمج المبكر، يحقق النموذج قدرات أساسية موحدة للرؤية-اللغة، يدعم النصوص، الصور، وفهم الفيديو. يقدم أداءً ممتازًا عبر معايير متعددة بما في ذلك الاستنتاج، البرمجة، الوكلاء، والفهم البصري. يتم تمكين وضع التفكير افتراضيًا، يدعم استدعاء الأدوات، ويغطي 201 لغة ولهجة.",
"qwen/qwen3.5-397b-a17b.description": "Qwen3.5-397B-A17B هو أحدث نموذج رؤية-لغة في سلسلة Qwen، يتميز ببنية Mixture-of-Experts (MoE) مع إجمالي 397 مليار معلمة و17 مليار معلمة مفعلة. يدعم طول سياق 256K، قابل للتمديد إلى حوالي مليون رمز. يدعم 201 لغة ويوفر قدرات فهم موحدة للرؤية-اللغة، استدعاء الأدوات، ووضع التفكير.",
"qwen/qwen3.5-4b.description": "Qwen3.5-4B هو نموذج لغة كبير متعدد الوسائط تم تطويره بواسطة فريق Qwen مع 4 مليارات معلمة، مما يجعله النموذج الأكثر خفة في سلسلة Qwen3.5. يستخدم النموذج بنية هجينة فعالة تجمع بين شبكات Gated Delta وGated Attention. يدعم طول سياق 256K، قابل للتمديد إلى حوالي مليون رمز. من خلال تدريب الدمج المبكر، يحقق النموذج قدرات أساسية موحدة للرؤية-اللغة، يدعم النصوص، الصور، وفهم الفيديو. يقدم أداءً ممتازًا بين النماذج ذات الحجم المماثل، متفوقًا على GPT-5-Nano وGemini-2.5-Flash-Lite في عدة مقاييس. يتم تمكين وضع التفكير افتراضيًا، يدعم استدعاء الأدوات، ويغطي 201 لغة ولهجة.",
"qwen/qwen3.5-9b.description": "Qwen3.5-9B هو نموذج لغة كبير متعدد الوسائط تم تطويره بواسطة فريق Qwen مع 9 مليارات معلمة. كنموذج خفيف الوزن في سلسلة Qwen3.5، يستخدم بنية هجينة فعالة تجمع بين شبكات Gated Delta وGated Attention. يدعم طول سياق 256K، قابل للتمديد إلى حوالي مليون رمز. من خلال تدريب الدمج المبكر، يحقق النموذج قدرات أساسية موحدة للرؤية-اللغة، يدعم النصوص، الصور، وفهم الفيديو. يتم تمكين وضع التفكير افتراضيًا، يدعم استدعاء الأدوات، ويغطي 201 لغة ولهجة.",
"qwen2.5-14b-instruct-1m.description": "Qwen2.5 نموذج مفتوح المصدر بسعة 72 مليار معلمة.",
"qwen2.5-14b-instruct.description": "Qwen2.5 نموذج مفتوح المصدر بسعة 14 مليار معلمة.",
"qwen2.5-32b-instruct.description": "Qwen2.5 نموذج مفتوح المصدر بسعة 32 مليار معلمة.",
"qwen2.5-72b-instruct.description": "Qwen2.5 نموذج مفتوح المصدر بسعة 72 مليار معلمة.",
"qwen2.5-7b-instruct.description": "Qwen2.5 7B Instruct هو نموذج مفتوح المصدر ناضج للدردشة وتوليد المحتوى في سيناريوهات متعددة.",
"qwen2.5-coder-1.5b-instruct.description": "نموذج Qwen للبرمجة مفتوح المصدر.",
"qwen2.5-coder-14b-instruct.description": "نموذج Qwen للبرمجة مفتوح المصدر.",
"qwen2.5-coder-32b-instruct.description": "نموذج Qwen للبرمجة مفتوح المصدر.",
"qwen2.5-coder-7b-instruct.description": "نموذج Qwen للبرمجة مفتوح المصدر.",
"qwen2.5-coder-instruct.description": "Qwen2.5-Coder هو أحدث نموذج لغوي كبير في عائلة Qwen يركز على البرمجة (سابقًا CodeQwen).",
"qwen2.5-instruct.description": "Qwen2.5 هو أحدث إصدار من سلسلة Qwen LLM، ويشمل نماذج أساسية ومضبوطة للتعليم تتراوح من 0.5B إلى 72B معلمة.",
"qwen2.5-math-1.5b-instruct.description": "Qwen-Math يتمتع بقدرات قوية في حل المسائل الرياضية.",
"qwen2.5-math-72b-instruct.description": "Qwen-Math يتمتع بقدرات قوية في حل المسائل الرياضية.",
"qwen2.5-math-7b-instruct.description": "Qwen-Math يتمتع بقدرات قوية في حل المسائل الرياضية.",
"qwen2.5-omni-7b.description": "نماذج Qwen-Omni تدعم المدخلات متعددة الوسائط (فيديو، صوت، صور، نص) وتنتج مخرجات صوتية ونصية.",
"qwen2.5-vl-32b-instruct.description": "Qwen2.5 VL 32B Instruct هو نموذج متعدد الوسائط مفتوح المصدر مناسب للنشر الخاص والاستخدام في سيناريوهات متعددة.",
"qwen2.5-vl-72b-instruct.description": "تحسين في اتباع التعليمات، والرياضيات، وحل المشكلات، والبرمجة، مع قدرة أقوى على التعرف على الكائنات. يدعم تحديد العناصر البصرية بدقة عبر التنسيقات، وفهم الفيديو الطويل (حتى 10 دقائق) مع توقيت الأحداث على مستوى الثانية، وترتيبها الزمني وفهم السرعة، ووكلاء يمكنهم التحكم في أنظمة التشغيل أو الهواتف المحمولة من خلال التحليل والتحديد. يتميز باستخراج المعلومات الأساسية بدقة وإخراج JSON. هذا هو الإصدار الأقوى بسعة 72B.",
"qwen2.5-vl-7b-instruct.description": "Qwen2.5 VL 7B Instruct هو نموذج متعدد الوسائط خفيف الوزن يوازن بين تكلفة النشر وقدرة التعرف.",
"qwen2.5-vl-instruct.description": "Qwen2.5-VL هو أحدث نموذج رؤية-لغة في عائلة Qwen.",
"qwen2.5.description": "Qwen2.5 هو الجيل الجديد من النماذج اللغوية الكبيرة من Alibaba، يتميز بأداء قوي في استخدامات متنوعة.",
"qwen2.5:0.5b.description": "Qwen2.5 هو الجيل الجديد من النماذج اللغوية الكبيرة من Alibaba، يتميز بأداء قوي في استخدامات متنوعة.",
"qwen2.5:1.5b.description": "Qwen2.5 هو الجيل الجديد من النماذج اللغوية الكبيرة من Alibaba، يتميز بأداء قوي في استخدامات متنوعة.",
"qwen2.5:72b.description": "Qwen2.5 هو الجيل الجديد من النماذج اللغوية الكبيرة من Alibaba، يتميز بأداء قوي في استخدامات متنوعة.",
"qwen2.description": "Qwen2 هو الجيل الجديد من النماذج اللغوية الكبيرة من Alibaba، يتميز بأداء قوي في استخدامات متنوعة.",
"qwen2:0.5b.description": "Qwen2 هو الجيل الجديد من النماذج اللغوية الكبيرة من Alibaba، يتميز بأداء قوي في استخدامات متنوعة.",
"qwen2:1.5b.description": "Qwen2 هو نموذج اللغة الكبير من الجيل التالي من Alibaba، يتميز بأداء قوي في مجموعة متنوعة من الاستخدامات.",
"qwen2:72b.description": "Qwen2 هو نموذج اللغة الكبير من الجيل التالي من Alibaba، يتميز بأداء قوي في مجموعة متنوعة من الاستخدامات.",
"qwen3-0.6b.description": "Qwen3 0.6B هو نموذج مبدئي مخصص للاستدلال البسيط والبيئات المحدودة للغاية.",
"qwen3-1.7b.description": "Qwen3 1.7B هو نموذج فائق الخفة مصمم للنشر على الأجهزة الطرفية.",
"qwen3-14b.description": "Qwen3 14B هو نموذج متوسط الحجم مخصص للإجابة متعددة اللغات وتوليد النصوص.",
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507 هو نموذج إرشادي رائد لمجموعة واسعة من مهام التوليد والاستدلال.",
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507 هو نموذج تفكير فائق الحجم مخصص للاستدلال المعقد.",
"qwen3-235b-a22b.description": "Qwen3 هو نموذج Tongyi Qwen من الجيل الجديد، يحقق تقدمًا كبيرًا في الاستدلال، والقدرات العامة، وقدرات الوكلاء، والأداء متعدد اللغات، ويدعم تبديل أنماط التفكير.",
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507 هو نموذج إرشادي متوسط إلى كبير مخصص لتوليد عالي الجودة والإجابة على الأسئلة.",
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507 هو نموذج تفكير متوسط إلى كبير يوازن بين الدقة والتكلفة.",
"qwen3-30b-a3b.description": "Qwen3 30B A3B هو نموذج عام متوسط إلى كبير يوازن بين الجودة والتكلفة.",
"qwen3-32b.description": "Qwen3 32B مناسب للمهام العامة التي تتطلب فهماً أعمق.",
"qwen3-4b.description": "Qwen3 4B مناسب للتطبيقات الصغيرة إلى المتوسطة والاستدلال المحلي.",
"qwen3-8b.description": "Qwen3 8B هو نموذج خفيف الوزن يتميز بنشر مرن للتعامل مع أعباء العمل عالية التوازي.",
"qwen3-coder-30b-a3b-instruct.description": "نموذج Qwen مفتوح المصدر للبرمجة. الإصدار الأحدث qwen3-coder-30b-a3b-instruct مبني على Qwen3 ويقدم قدرات قوية كوكلاء برمجة، واستخدام الأدوات، والتفاعل مع البيئة للبرمجة الذاتية، مع أداء ممتاز في البرمجة وقدرات عامة قوية.",
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct هو نموذج برمجة رائد مخصص للبرمجة متعددة اللغات وفهم الكود المعقد.",
"qwen3-coder-flash.description": "نموذج Qwen للبرمجة. سلسلة Qwen3-Coder الأحدث مبنية على Qwen3 وتوفر قدرات قوية كوكلاء برمجة، واستخدام الأدوات، والتفاعل مع البيئة للبرمجة الذاتية، مع أداء ممتاز في البرمجة وقدرات عامة قوية.",
"qwen3-coder-next.description": "الجيل التالي من Qwen coder محسن لتوليد الأكواد المعقدة متعددة الملفات، وتصحيح الأخطاء، وسير العمل عالي الإنتاجية للوكلاء. مصمم لتكامل الأدوات القوي وتحسين أداء الاستدلال.",
"qwen3-coder-plus.description": "نموذج Qwen للبرمجة. سلسلة Qwen3-Coder الأحدث مبنية على Qwen3 وتوفر قدرات قوية كوكلاء برمجة، واستخدام الأدوات، والتفاعل مع البيئة للبرمجة الذاتية، مع أداء ممتاز في البرمجة وقدرات عامة قوية.",
"qwen3-coder:480b.description": "نموذج عالي الأداء من Alibaba لمعالجة المهام المتعلقة بالوكلاء والبرمجة مع دعم لسياقات طويلة.",
"qwen3-max-preview.description": "أفضل نموذج Qwen للأداء في المهام المعقدة متعددة الخطوات. المعاينة تدعم التفكير.",
"qwen3-max.description": "نماذج Qwen3 Max تقدم تحسينات كبيرة مقارنة بسلسلة 2.5 في القدرات العامة، وفهم اللغة الصينية/الإنجليزية، واتباع التعليمات المعقدة، والمهام المفتوحة الذاتية، والقدرات متعددة اللغات، واستخدام الأدوات، مع تقليل الهلوسة. الإصدار الأحدث qwen3-max يعزز البرمجة الوكيلة واستخدام الأدوات مقارنة بـ qwen3-max-preview. هذا الإصدار يحقق أداءً رائداً في المجال ويستهدف احتياجات الوكلاء المعقدة.",
"qwen3-next-80b-a3b-instruct.description": "نموذج Qwen3 من الجيل التالي مفتوح المصدر غير مخصص للتفكير. مقارنة بالإصدار السابق (Qwen3-235B-A22B-Instruct-2507)، يتميز بفهم أفضل للغة الصينية، واستدلال منطقي أقوى، وتحسين في توليد النصوص.",
"qwen3-next-80b-a3b-thinking.description": "Qwen3 Next 80B A3B Thinking هو إصدار رائد من نماذج التفكير مخصص للمهام المعقدة.",
"qwen3-omni-flash.description": "Qwen-Omni يقبل مدخلات متعددة تشمل النصوص، الصور، الصوت، والفيديو، ويُنتج نصاً أو كلاماً. يوفر أنماط صوت طبيعية متعددة، ويدعم الكلام بلغات ولهجات متعددة، ومناسب لحالات استخدام مثل الكتابة، والتعرف البصري، والمساعدات الصوتية.",
"qwen3-vl-235b-a22b-instruct.description": "Qwen3 VL 235B A22B Instruct هو نموذج متعدد الوسائط رائد مخصص للفهم والإبداع المتقدم.",
"qwen3-vl-235b-a22b-thinking.description": "Qwen3 VL 235B A22B Thinking هو الإصدار الرائد للتفكير في المهام متعددة الوسائط المعقدة والتخطيط.",
"qwen3-vl-30b-a3b-instruct.description": "Qwen3 VL 30B A3B Instruct هو نموذج متعدد الوسائط كبير يوازن بين الدقة وأداء الاستدلال.",
"qwen3-vl-30b-a3b-thinking.description": "Qwen3 VL 30B A3B Thinking هو إصدار تفكير عميق مخصص للمهام متعددة الوسائط المعقدة.",
"qwen3-vl-32b-instruct.description": "Qwen3 VL 32B Instruct هو نموذج متعدد الوسائط مضبوط على التعليمات مخصص للإجابة على الأسئلة وإنشاء المحتوى بجودة عالية من الصور والنصوص.",
"qwen3-vl-32b-thinking.description": "Qwen3 VL 32B Thinking هو إصدار تفكير متعدد الوسائط مخصص للاستدلال المعقد والتحليل المتسلسل الطويل.",
"qwen3-vl-8b-instruct.description": "Qwen3 VL 8B Instruct هو نموذج متعدد الوسائط خفيف الوزن مخصص للإجابة البصرية اليومية ودمج التطبيقات.",
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking هو نموذج تفكير متعدد الوسائط مخصص للاستدلال البصري التفصيلي.",
"qwen3-vl-flash.description": "Qwen3 VL Flash: إصدار خفيف وسريع للاستدلال مخصص للطلبات الحساسة للزمن أو ذات الحجم الكبير.",
"qwen3-vl-plus.description": "Qwen VL هو نموذج توليد نصوص مع فهم بصري. يمكنه تنفيذ OCR، والتلخيص، والاستدلال، مثل استخراج السمات من صور المنتجات أو حل المشكلات من الصور.",
"qwen3.5-122b-a10b.description": "يدعم إدخال النصوص والصور والفيديو. بالنسبة للمهام النصية فقط، أداؤه مشابه لـ Qwen3 Max، مع كفاءة أعلى وتكلفة أقل. في القدرات متعددة الوسائط، يقدم تحسينات كبيرة مقارنة بسلسلة Qwen3 VL.",
"qwen3.5-27b.description": "يدعم إدخال النصوص والصور والفيديو. بالنسبة للمهام النصية فقط، أداؤه مشابه لـ Qwen3 Max، مع كفاءة أعلى وتكلفة أقل. في القدرات متعددة الوسائط، يقدم تحسينات كبيرة مقارنة بسلسلة Qwen3 VL.",
"qwen3.5-35b-a3b.description": "يدعم إدخال النصوص والصور والفيديو. بالنسبة للمهام النصية فقط، أداؤه مشابه لـ Qwen3 Max، مع كفاءة أعلى وتكلفة أقل. في القدرات متعددة الوسائط، يقدم تحسينات كبيرة مقارنة بسلسلة Qwen3 VL.",
"qwen3.5-397b-a17b.description": "يدعم إدخالات النصوص والصور والفيديو. بالنسبة للمهام النصية فقط، أداؤه مشابه لـ Qwen3 Max، مع تقديم كفاءة أعلى وتكلفة أقل. في القدرات متعددة الوسائط، يقدم تحسينات كبيرة مقارنة بسلسلة Qwen3 VL.",
"qwen3.5-flash.description": "أسرع وأقل تكلفة من نماذج Qwen، مثالي للمهام البسيطة.",
"qwen3.5-plus.description": "Qwen3.5 Plus يدعم إدخال النصوص، الصور، والفيديو. أداؤه في المهام النصية البحتة يعادل Qwen3 Max، مع أداء أفضل وتكلفة أقل. قدراته متعددة الوسائط محسنة بشكل كبير مقارنة بسلسلة Qwen3 VL.",
"qwen3.5:397b.description": "Qwen3.5 هو نموذج أساسي موحد للرؤية واللغة مع بنية هجينة (Mixture-of-Experts + انتباه خطي)، يقدم قدرات قوية في التفكير متعدد الوسائط، البرمجة، والسياقات الطويلة مع نافذة سياق 256K.",
"qwen3.description": "Qwen3 هو نموذج اللغة الكبير من الجيل التالي من Alibaba، يتميز بأداء قوي في مجموعة متنوعة من الاستخدامات.",
"qwq-32b-preview.description": "QwQ هو نموذج بحث تجريبي من Qwen يركز على تحسين الاستدلال.",
"qwq-32b.description": "QwQ هو نموذج استدلال من عائلة Qwen. مقارنة بالنماذج المضبوطة على التعليمات، يقدم تفكيراً واستدلالاً يعزز الأداء بشكل كبير، خاصة في المشكلات المعقدة. QwQ-32B هو نموذج متوسط الحجم ينافس أفضل نماذج الاستدلال مثل DeepSeek-R1 و o1-mini.",
"qwq-plus.description": "نموذج الاستدلال QwQ المدرب على Qwen2.5 يستخدم التعلم المعزز لتحسين الاستدلال بشكل كبير. يحقق نتائج رائدة في الرياضيات/البرمجة (AIME 24/25، LiveCodeBench) وبعض المعايير العامة (IFEval، LiveBench) بمستوى DeepSeek-R1 الكامل.",
"qwq.description": "QwQ هو نموذج استدلال من عائلة Qwen. مقارنة بالنماذج المضبوطة على التعليمات، يقدم قدرات تفكير واستدلال تعزز الأداء بشكل كبير، خاصة في المشكلات الصعبة. QwQ-32B هو نموذج متوسط الحجم ينافس أفضل نماذج الاستدلال مثل DeepSeek-R1 و o1-mini.",
"qwq_32b.description": "نموذج استدلال متوسط الحجم من عائلة Qwen. مقارنة بالنماذج المضبوطة على التعليمات، تعزز قدرات التفكير والاستدلال في QwQ الأداء بشكل كبير، خاصة في المشكلات الصعبة.",
"r1-1776.description": "R1-1776 هو إصدار ما بعد التدريب من DeepSeek R1 مصمم لتقديم معلومات واقعية غير خاضعة للرقابة أو التحيز.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro من ByteDance يدعم تحويل النص إلى فيديو، الصورة إلى فيديو (الإطار الأول، الإطار الأول + الأخير)، وإنشاء الصوت متزامنًا مع المرئيات.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite من BytePlus يتميز بإنشاء معزز بالاسترجاع عبر الويب للحصول على معلومات في الوقت الحقيقي، تفسير محسّن للتعليمات المعقدة، وتحسين تناسق المراجع لإنشاء بصري احترافي.",
"solar-mini-ja.description": "Solar Mini (Ja) يوسع Solar Mini مع تركيز على اللغة اليابانية مع الحفاظ على الأداء القوي والكفاءة في الإنجليزية والكورية.",
"solar-mini.description": "Solar Mini هو نموذج لغة مدمج يتفوق على GPT-3.5، يتميز بقدرات متعددة اللغات قوية تدعم الإنجليزية والكورية، ويقدم حلاً فعالاً بصمة صغيرة.",
"solar-pro.description": "Solar Pro هو نموذج لغة عالي الذكاء من Upstage، يركز على اتباع التعليمات باستخدام وحدة معالجة رسومات واحدة، مع درجات IFEval تتجاوز 80. حالياً يدعم اللغة الإنجليزية؛ وكان من المقرر إصدار النسخة الكاملة في نوفمبر 2024 مع دعم لغات موسع وسياق أطول.",
"sonar-deep-research.description": "Deep Research يجري أبحاثاً شاملة على مستوى الخبراء ويحولها إلى تقارير قابلة للفهم والتنفيذ.",
"sonar-pro.description": "منتج بحث متقدم يعتمد على البحث الموجه لفهم الاستفسارات المعقدة والمتابعة.",
"sonar-reasoning-pro.description": "منتج بحث متقدم يعتمد على البحث الموجه لفهم الاستفسارات المعقدة والمتابعة.",
"sonar-reasoning.description": "منتج بحث متقدم يعتمد على البحث الموجه لفهم الاستفسارات المعقدة والمتابعة.",
"sonar.description": "منتج بحث خفيف الوزن يعتمد على البحث الموجه، أسرع وأقل تكلفة من Sonar Pro.",
"sophnet/deepseek-v3.2.description": "DeepSeek V3.2 هو نموذج يوازن بين الكفاءة الحسابية العالية وأداء الاستدلال والوكيل الممتاز.",
"spark-x.description": "نظرة عامة على قدرات X2: 1. يقدم تعديل ديناميكي لوضع الاستدلال، يتم التحكم فيه عبر الحقل `thinking`. 2. طول سياق موسع: 64K رموز إدخال و128K رموز إخراج. 3. يدعم وظيفة استدعاء الأدوات.",
"stable-diffusion-3-medium.description": "أحدث نموذج تحويل النص إلى صورة من Stability AI. هذا الإصدار يحسن جودة الصور، وفهم النص، وتنوع الأساليب بشكل كبير، ويفسر التعليمات الطبيعية المعقدة بدقة أكبر وينتج صورًا أكثر دقة وتنوعًا.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo يستخدم تقنيات تقطير الانتشار العدائي (ADD) لتسريع stable-diffusion-3.5-large.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large هو نموذج تحويل نص إلى صورة بسعة 800 مليون معلمة، يتميز بجودة عالية وتوافق ممتاز مع التعليمات، ويدعم صورًا بدقة 1 ميغابيكسل وتشغيلًا فعالًا على الأجهزة الاستهلاكية.",
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 تم تهيئته من نقطة التحقق v1.2 وتم تحسينه لمدة 595 ألف خطوة على \"laion-aesthetics v2 5+\" بدقة 512x512، مع تقليل تكييف النص بنسبة 10% لتحسين التوجيه بدون مصنف.",
"stable-diffusion-xl-base-1.0.description": "نموذج تحويل نص إلى صورة مفتوح المصدر من Stability AI يتميز بإبداع رائد في توليد الصور. يتمتع بفهم قوي للتعليمات ويدعم تعريف التعليمات العكسية لتوليد دقيق.",
"stable-diffusion-xl.description": "stable-diffusion-xl يقدم تحسينات كبيرة مقارنة بـ v1.5 ويضاهي أفضل نتائج النماذج المفتوحة لتحويل النص إلى صورة. تشمل التحسينات مضاعفة حجم UNet ثلاث مرات، ووحدة تحسين لجودة الصورة، وتقنيات تدريب أكثر كفاءة.",
"step-1-128k.description": "يوفر توازنًا بين الأداء والتكلفة للسيناريوهات العامة.",
"step-1-256k.description": "يدعم السياقات الطويلة جدًا، مثالي لتحليل المستندات الطويلة.",
"step-1-32k.description": "يدعم المحادثات متوسطة الطول لمجموعة واسعة من الاستخدامات.",
"step-1-8k.description": "نموذج صغير مناسب للمهام الخفيفة.",
"step-1-flash.description": "نموذج عالي السرعة مناسب للدردشة في الوقت الفعلي.",
"step-1.5v-mini.description": "قدرات قوية في فهم الفيديو.",
"step-1o-turbo-vision.description": "فهم قوي للصور، يتفوق على 1o في الرياضيات والبرمجة. أصغر من 1o ويعطي نتائج أسرع.",
"step-1o-vision-32k.description": "فهم قوي للصور مع أداء بصري أفضل من سلسلة Step-1V.",
"step-1v-32k.description": "يدعم مدخلات الرؤية لتفاعل متعدد الوسائط أكثر ثراءً.",
"step-1v-8k.description": "نموذج رؤية صغير للمهام الأساسية بين الصور والنصوص.",
"step-1x-edit.description": "يركز هذا النموذج على تحرير الصور، تعديلها وتحسينها بناءً على الصور والنصوص المقدمة من المستخدم. يدعم تنسيقات إدخال متعددة، بما في ذلك الأوصاف النصية والصور النموذجية، وينتج تعديلات تتماشى مع نية المستخدم.",
"step-1x-medium.description": "يقدم هذا النموذج توليد صور قوي من مدخلات نصية. مع دعم أصلي للغة الصينية، يفهم الأوصاف الصينية بشكل أفضل، ويفسر معانيها، ويحولها إلى ميزات بصرية لتوليد أكثر دقة. ينتج صورًا عالية الدقة والجودة ويدعم نقل الأسلوب بدرجة معينة.",
"step-2-16k-exp.description": "إصدار تجريبي من Step-2 يحتوي على أحدث الميزات وتحديثات مستمرة. غير موصى به للإنتاج.",
"step-2-16k.description": "يدعم التفاعلات ذات السياق الكبير للمحادثات المعقدة.",
"step-2-mini.description": "مبني على بنية MFA الجديدة، يقدم نتائج مماثلة لـ Step-1 بتكلفة أقل، مع إنتاجية أعلى وزمن استجابة أسرع. يتعامل مع المهام العامة بقدرة قوية على البرمجة.",
"step-2x-large.description": "نموذج صور من الجيل الجديد من StepFun يركز على توليد الصور، وينتج صورًا عالية الجودة من التعليمات النصية. يتميز بواقعية أكبر في الملمس وقدرة أقوى على عرض النصوص الصينية/الإنجليزية.",
"step-3.5-flash.description": "نموذج التفكير اللغوي الرائد من Stepfun. يتميز بقدرات تفكير من الدرجة الأولى وقدرات تنفيذ سريعة وموثوقة. قادر على تحليل وتخطيط المهام المعقدة، واستدعاء الأدوات بسرعة وموثوقية لأداء المهام، والتعامل مع مختلف المهام المعقدة مثل التفكير المنطقي، الرياضيات، هندسة البرمجيات، والبحث المتعمق.",
"step-3.description": "يتمتع هذا النموذج بإدراك بصري قوي واستدلال معقد، ويتعامل بدقة مع فهم المعرفة عبر المجالات، وتحليل الرياضيات والرؤية، ومجموعة واسعة من مهام التحليل البصري اليومية.",
"step-r1-v-mini.description": "نموذج استدلال يتمتع بفهم قوي للصور، يمكنه معالجة الصور والنصوص، ثم توليد نص بعد استدلال عميق. يتفوق في الاستدلال البصري ويقدم أداءً رائدًا في الرياضيات والبرمجة والاستدلال النصي، مع نافذة سياق تصل إلى 100 ألف.",
"stepfun-ai/step3.description": "Step3 هو نموذج استدلال متعدد الوسائط متقدم من StepFun، مبني على بنية MoE بسعة إجمالية 321B و38B نشطة. تصميمه الشامل يقلل من تكلفة فك التشفير مع تقديم استدلال رؤية-لغة من الدرجة الأولى. بفضل تصميم MFA وAFD، يظل فعالًا على المسرعات القوية والضعيفة. تم تدريبه مسبقًا على أكثر من 20 تريليون رمز نصي و4 تريليون رمز صورة-نص بعدة لغات. يحقق أداءً رائدًا في النماذج المفتوحة في اختبارات الرياضيات والبرمجة ومتعددة الوسائط.",
"taichu4_vl_2b_nothinking.description": "الإصدار بدون التفكير من نموذج Taichu4.0-VL 2B يتميز باستخدام ذاكرة أقل، تصميم خفيف الوزن، سرعة استجابة سريعة، وقدرات فهم متعددة الوسائط قوية.",
"taichu4_vl_32b.description": "الإصدار التفكير من نموذج Taichu4.0-VL 32B مناسب لمهام الفهم والاستدلال متعددة الوسائط المعقدة، ويظهر أداءً رائعًا في الاستدلال الرياضي متعدد الوسائط، قدرات الوكيل متعدد الوسائط، والفهم العام للصور والبصريات.",
"taichu4_vl_32b_nothinking.description": "الإصدار بدون التفكير من نموذج Taichu4.0-VL 32B مصمم لفهم النصوص والصور المعقدة وسيناريوهات الإجابة على الأسئلة المعرفية البصرية، ويتفوق في وصف الصور، الإجابة على الأسئلة البصرية، فهم الفيديو، ومهام تحديد المواقع البصرية.",
"taichu4_vl_3b.description": "الإصدار التفكير من نموذج Taichu4.0-VL 3B يؤدي بكفاءة مهام الفهم والاستدلال متعددة الوسائط، مع تحسينات شاملة في الفهم البصري، تحديد المواقع البصرية، التعرف على النصوص البصرية (OCR)، والقدرات ذات الصلة.",
"taichu_llm.description": "نموذج اللغة الكبير Zidong Taichu هو نموذج توليد نصوص عالي الأداء تم تطويره باستخدام تقنيات محلية بالكامل. من خلال ضغط هيكلي لنموذج أساسي بمئة مليار معلمة وتحسينات خاصة بالمهام، يعزز بشكل كبير فهم النصوص المعقدة وقدرات الاستدلال المعرفي. يتفوق في سيناريوهات مثل تحليل الوثائق الطويلة، استخراج المعلومات عبر اللغات، والتوليد المقيد بالمعرفة.",
"taichu_llm_14b.description": "نموذج اللغة الكبير Zidong Taichu هو نموذج توليد نصوص عالي الأداء تم تطويره باستخدام تقنيات محلية بالكامل. من خلال ضغط هيكلي لنموذج أساسي بمئة مليار معلمة وتحسينات خاصة بالمهام، يعزز بشكل كبير فهم النصوص المعقدة وقدرات الاستدلال المعرفي. يتفوق في سيناريوهات مثل تحليل الوثائق الطويلة، استخراج المعلومات عبر اللغات، والتوليد المقيد بالمعرفة.",
"taichu_llm_2b.description": "نموذج اللغة الكبير Zidong Taichu هو نموذج توليد نصوص عالي الأداء تم تطويره باستخدام تقنيات محلية بالكامل. من خلال ضغط هيكلي لنموذج أساسي بمئة مليار معلمة وتحسينات خاصة بالمهام، يعزز بشكل كبير فهم النصوص المعقدة وقدرات الاستدلال المعرفي. يتفوق في سيناريوهات مثل تحليل الوثائق الطويلة، استخراج المعلومات عبر اللغات، والتوليد المقيد بالمعرفة.",
"taichu_o1.description": "taichu_o1 هو نموذج كبير للاستدلال من الجيل التالي يحقق سلسلة التفكير البشرية من خلال التفاعل متعدد الوسائط والتعلم المعزز. يدعم محاكاة اتخاذ القرارات المعقدة، ومع الحفاظ على دقة عالية للإخراج، يكشف عن مسارات استدلال قابلة للتفسير. يناسب تحليل الاستراتيجيات، التفكير العميق، والسيناريوهات المشابهة.",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct يستخدم 80 مليار معلمة إجمالية مع 13 مليار نشطة لمضاهاة النماذج الأكبر. يدعم الاستدلال الهجين السريع/البطيء، وفهم النصوص الطويلة بثبات، وقدرات وكيل رائدة على BFCL-v3 وτ-Bench. تدعم تنسيقات GQA والتكميم المتعدد الاستدلال بكفاءة.",
"tencent/Hunyuan-MT-7B.description": "نموذج الترجمة Hunyuan يشمل Hunyuan-MT-7B وHunyuan-MT-Chimera. Hunyuan-MT-7B هو نموذج ترجمة خفيف بسعة 7B يدعم 33 لغة بالإضافة إلى 5 لغات صينية محلية. حصل على المركز الأول في 30 من أصل 31 زوج لغوي في WMT25. يستخدم Hunyuan من Tencent سلسلة تدريب كاملة من التدريب المسبق إلى SFT إلى الترجمة بالتعلم المعزز، محققًا أداءً رائدًا بحجمه وسهولة في النشر.",
"text-embedding-3-large.description": "أقوى نموذج تضمين للمهام باللغة الإنجليزية وغير الإنجليزية.",
"text-embedding-3-small-inference.description": "نموذج Embedding V3 صغير (للاستدلال) لتضمين النصوص.",
"text-embedding-3-small.description": "نموذج تضمين من الجيل التالي فعال من حيث التكلفة ومناسب للاسترجاع وسيناريوهات RAG.",
"text-embedding-ada-002.description": "نموذج Embedding V2 Ada لتضمين النصوص.",
"thudm/glm-4-32b.description": "GLM-4-32B-0414 هو نموذج ثنائي اللغة (صيني/إنجليزي) بسعة 32B وأوزان مفتوحة، مُحسَّن لتوليد الشيفرات، واستدعاء الوظائف، ومهام الوكلاء. تم تدريبه مسبقًا على 15 تريليون رمز عالي الجودة ومليء بالاستدلال، وتم تحسينه بموازنة تفضيلات البشر، وأخذ العينات بالرفض، والتعلم المعزز. يتفوق في الاستدلال المعقد، وتوليد المخرجات المنظمة، ويصل إلى مستوى أداء GPT-4o وDeepSeek-V3-0324 في العديد من المعايير.",
"thudm/glm-4-32b:free.description": "GLM-4-32B-0414 هو نموذج ثنائي اللغة (صيني/إنجليزي) بسعة 32B وأوزان مفتوحة، مُحسَّن لتوليد الشيفرات، واستدعاء الوظائف، ومهام الوكلاء. تم تدريبه مسبقًا على 15 تريليون رمز عالي الجودة ومليء بالاستدلال، وتم تحسينه بموازنة تفضيلات البشر، وأخذ العينات بالرفض، والتعلم المعزز. يتفوق في الاستدلال المعقد، وتوليد المخرجات المنظمة، ويصل إلى مستوى أداء GPT-4o وDeepSeek-V3-0324 في العديد من المعايير.",
"thudm/glm-4-9b-chat.description": "الإصدار مفتوح المصدر من نموذج GLM-4 الأحدث من Zhipu AI.",
"thudm/glm-z1-32b.description": "GLM-Z1-32B-0414 هو إصدار استدلال محسَّن من GLM-4-32B، مصمم لحل المشكلات المعقدة في الرياضيات والمنطق والبرمجة. يستخدم تعلمًا معززًا موسعًا (تفضيلات زوجية خاصة بالمهمة وعامة) لتحسين المهام متعددة الخطوات. مقارنة بـ GLM-4-32B، يقدم Z1 تحسينات كبيرة في الاستدلال المنظم والقدرات في المجالات الرسمية. يدعم فرض خطوات التفكير من خلال هندسة التعليمات، وتحسين التماسك في المخرجات الطويلة، ومُحسَّن لسير عمل الوكلاء مع سياق طويل (عبر YaRN)، واستدعاء أدوات JSON، وأخذ عينات دقيقة لاستدلال مستقر. مثالي للحالات التي تتطلب اشتقاقات متعددة الخطوات أو رسمية دقيقة.",
"thudm/glm-z1-rumination-32b.description": "GLM Z1 Rumination 32B هو نموذج تفكير عميق بسعة 32 مليار في سلسلة GLM-4-Z1، مُحسّن للمهام المعقدة المفتوحة التي تتطلب تفكيرًا طويل الأمد. مبني على glm-4-32b-0414، ويضيف مراحل تعزيز التعلم (RL) إضافية ومحاذاة متعددة المراحل، مما يقدّم قدرة \"التأمل\" التي تحاكي المعالجة المعرفية الممتدة. يشمل ذلك التفكير التكراري، والتحليل متعدد الخطوات، وسير العمل المدعوم بالأدوات مثل البحث، والاسترجاع، والتوليف المدرك للاستشهادات.\n\nيتفوّق في كتابة الأبحاث، والتحليل المقارن، والأسئلة المعقدة. يدعم استدعاء الوظائف لأساسيات البحث/التنقل (`search`، `click`، `open`، `finish`) في خطوط أنابيب الوكلاء. يتم التحكم في سلوك التأمل من خلال حلقات متعددة الجولات مع تشكيل مكافآت قائم على القواعد وآليات اتخاذ القرار المؤجل، وتمت معايرته مقابل أطر البحث العميق مثل نظام المحاذاة الداخلي لـ OpenAI. هذا الإصدار يركّز على العمق بدلاً من السرعة.",
"tngtech/deepseek-r1t-chimera:free.description": "تم إنشاء DeepSeek-R1T-Chimera من خلال دمج DeepSeek-R1 و DeepSeek-V3 (0324)، حيث يجمع بين قدرات التفكير في R1 وكفاءة الرموز في V3. يعتمد على محول DeepSeek-MoE وتم تحسينه لتوليد النصوص العامة.\n\nيُدمج الأوزان المدربة مسبقًا لتحقيق توازن بين التفكير والكفاءة واتباع التعليمات. تم إصداره بموجب ترخيص MIT للاستخدام البحثي والتجاري.",
"togethercomputer/StripedHyena-Nous-7B.description": "يوفّر StripedHyena Nous (7B) كفاءة حوسبة محسّنة من خلال بنيته واستراتيجيته.",
"tts-1-hd.description": "أحدث نموذج تحويل النص إلى كلام، مُحسّن للجودة.",
"tts-1.description": "أحدث نموذج تحويل النص إلى كلام، مُحسّن للسرعة في الوقت الحقيقي.",
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "تم ضبط Upstage SOLAR Instruct v1 (11B) بدقة لتنفيذ المهام التوجيهية مع أداء لغوي قوي.",
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet يرفع المعيار الصناعي، متفوقًا على المنافسين وClaude 3 Opus في تقييمات شاملة مع الحفاظ على سرعة وتكلفة متوسطة.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet هو أسرع نموذج من الجيل التالي من Anthropic. مقارنة بـ Claude 3 Haiku، يقدم تحسينات شاملة ويتفوق على النموذج الرائد السابق Claude 3 Opus في العديد من اختبارات الذكاء.",
"v0-1.0-md.description": "v0-1.0-md هو نموذج قديم يتم تقديمه عبر واجهة برمجة التطبيقات v0.",
"v0-1.5-lg.description": "v0-1.5-lg مناسب للمهام المتقدمة التي تتطلب تفكيرًا أو استدلالًا.",
"v0-1.5-md.description": "v0-1.5-md مناسب للمهام اليومية وتوليد واجهات المستخدم.",
"vercel/v0-1.0-md.description": "الوصول إلى النماذج التي تقف خلف v0 لتوليد، وتصحيح، وتحسين تطبيقات الويب الحديثة باستخدام استدلال خاص بالأطر ومعرفة محدثة.",
"vercel/v0-1.5-md.description": "الوصول إلى النماذج التي تقف خلف v0 لتوليد، وتصحيح، وتحسين تطبيقات الويب الحديثة باستخدام استدلال خاص بالأطر ومعرفة محدثة.",
"volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code مُحسّن لتلبية احتياجات البرمجة على مستوى المؤسسات. يعتمد على قدرات Agent و VLM الممتازة في Seed 2.0، ويعزز بشكل خاص قدرات البرمجة مع أداء واجهة أمامية متميز وتحسين مستهدف لمتطلبات البرمجة متعددة اللغات الشائعة في المؤسسات، مما يجعله مثاليًا للتكامل مع أدوات البرمجة بالذكاء الاصطناعي المختلفة.",
"volcengine/doubao-seed-2-0-lite.description": "يوازن بين جودة الإنتاج وسرعة الاستجابة، مناسب كنموذج إنتاجي عام.",
"volcengine/doubao-seed-2-0-mini.description": "يشير إلى أحدث إصدار من doubao-seed-2-0-mini.",
"volcengine/doubao-seed-2-0-pro.description": "يشير إلى أحدث إصدار من doubao-seed-2-0-pro.",
"volcengine/doubao-seed-code.description": "Doubao-Seed-Code هو نموذج لغة كبير من محرك ByteDance Volcano، مُحسّن للبرمجة الذاتية، ويؤدي أداءً قويًا في اختبارات البرمجة والوكلاء مع دعم سياق يصل إلى 256 ألف.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash هو أحدث نموذج مع تحسينات في الإبداع، الاستقرار، والواقعية، يقدم توليدًا سريعًا وقيمة عالية.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus هو أحدث نموذج مع تحسينات في الإبداع، الاستقرار، والواقعية، ينتج تفاصيل أكثر ثراءً.",
"wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview يدعم تحرير الصور الفردية ودمج الصور المتعددة.",
"wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I يدعم اختيارًا مرنًا لأبعاد الصور ضمن قيود إجمالي مساحة البكسل ونسبة العرض إلى الارتفاع.",
"wan2.6-image.description": "Wanxiang 2.6 Image يدعم تحرير الصور وإخراج تخطيط مختلط للنصوص والصور.",
"wan2.6-t2i.description": "Wanxiang 2.6 T2I يدعم اختيارًا مرنًا لأبعاد الصور ضمن قيود إجمالي مساحة البكسل ونسبة العرض إلى الارتفاع (مثل Wanxiang 2.5).",
"wanx-v1.description": "نموذج تحويل النص إلى صورة الأساسي. يُقابل Tongyi Wanxiang 1.0 General.",
"wanx2.0-t2i-turbo.description": "يتفوّق في الصور الشخصية الملمّسة بسرعة معتدلة وتكلفة منخفضة. يُقابل Tongyi Wanxiang 2.0 Speed.",
"wanx2.1-t2i-plus.description": "إصدار مطوّر بالكامل مع تفاصيل صور أغنى وسرعة أبطأ قليلاً. يُقابل Tongyi Wanxiang 2.1 Pro.",
"wanx2.1-t2i-turbo.description": "إصدار مطوّر بالكامل مع توليد سريع وجودة شاملة قوية وقيمة عالية. يُقابل Tongyi Wanxiang 2.1 Speed.",
"whisper-1.description": "نموذج عام للتعرف على الكلام يدعم التعرف على الكلام متعدد اللغات، وترجمة الكلام، وتحديد اللغة.",
"wizardlm2.description": "WizardLM 2 هو نموذج لغوي من Microsoft AI يتفوّق في الحوارات المعقدة، والمهام متعددة اللغات، والاستدلال، والمساعدات الذكية.",
"wizardlm2:8x22b.description": "WizardLM 2 هو نموذج لغوي من Microsoft AI يتفوّق في الحوارات المعقدة، والمهام متعددة اللغات، والاستدلال، والمساعدات الذكية.",
"x-ai/grok-4-fast-non-reasoning.description": "Grok 4 Fast (بدون استدلال) هو نموذج متعدد الوسائط عالي الإنتاجية ومنخفض التكلفة من xAI (يدعم نافذة سياق 2 مليون) مخصص للسيناريوهات الحساسة للزمن والتكلفة التي لا تتطلب استدلالًا داخليًا. يتوفر بجانب إصدار الاستدلال من Grok 4 Fast، ويمكن تفعيل الاستدلال عبر معلمة API عند الحاجة. قد تُستخدم المطالبات والإجابات من قبل xAI أو OpenRouter لتحسين النماذج المستقبلية.",
"x-ai/grok-4-fast.description": "Grok 4 Fast هو نموذج عالي الإنتاجية ومنخفض التكلفة من xAI (يدعم نافذة سياق 2 مليون)، مثالي لحالات الاستخدام ذات التزامن العالي والسياق الطويل.",
"x-ai/grok-4.1-fast-non-reasoning.description": "Grok 4.1 Fast (بدون استدلال) هو نموذج متعدد الوسائط عالي الإنتاجية ومنخفض التكلفة من xAI (يدعم نافذة سياق 2 مليون) مخصص للسيناريوهات الحساسة للزمن والتكلفة التي لا تتطلب استدلالًا داخليًا. يتوفر بجانب إصدار الاستدلال من Grok 4.1 Fast، ويمكن تفعيل الاستدلال عبر معلمة API عند الحاجة. قد تُستخدم المطالبات والإجابات من قبل xAI أو OpenRouter لتحسين النماذج المستقبلية.",
"x-ai/grok-4.1-fast.description": "Grok 4.1 Fast هو نموذج عالي الإنتاجية ومنخفض التكلفة من xAI (يدعم نافذة سياق 2 مليون)، مثالي لحالات الاستخدام ذات التزامن العالي والسياق الطويل.",
"x-ai/grok-4.description": "Grok 4 هو النموذج الرائد من xAI بقدرات استدلال قوية ودعم متعدد الوسائط.",
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1 هو نموذج سريع للبرمجة من xAI بإخراج قابل للقراءة ومناسب للهندسة.",
"x1.description": "تحديثات X1.5: (1) يضيف وضع التفكير الديناميكي الذي يتم التحكم فيه عبر الحقل `thinking`; (2) طول سياق أكبر مع 64K إدخال و64K إخراج; (3) يدعم وظيفة استدعاء الأدوات.",
"xai/grok-2-vision.description": "Grok 2 Vision يتفوّق في المهام البصرية، ويقدّم أداءً رائدًا في استدلال الرياضيات البصرية (MathVista) وأسئلة المستندات (DocVQA). يتعامل مع المستندات، والمخططات، والرسوم البيانية، ولقطات الشاشة، والصور.",
"xai/grok-2.description": "Grok 2 هو نموذج متقدم بأداء رائد في الاستدلال، والدردشة، والبرمجة، ويتفوّق على Claude 3.5 Sonnet وGPT-4 Turbo في تصنيفات LMSYS.",
"xai/grok-3-fast.description": "نموذج xAI الرائد يتفوّق في حالات الاستخدام المؤسسية مثل استخراج البيانات، والبرمجة، والتلخيص، مع معرفة عميقة في مجالات مثل المالية، والرعاية الصحية، والقانون، والعلوم. الإصدار السريع يعمل على بنية تحتية أسرع لتقديم استجابات أسرع بتكلفة أعلى لكل رمز.",
"xai/grok-3-mini-fast.description": "نموذج xAI الخفيف الوزن الذي يفكر قبل الرد، مثالي للمهام البسيطة أو القائمة على المنطق دون الحاجة إلى معرفة تخصصية. تتوفر آثار التفكير الخام. الإصدار السريع يعمل على بنية تحتية أسرع لتقديم استجابات أسرع بتكلفة أعلى لكل رمز.",
"xai/grok-3-mini.description": "نموذج xAI الخفيف الوزن الذي يفكر قبل الرد، مثالي للمهام البسيطة أو القائمة على المنطق دون الحاجة إلى معرفة تخصصية. تتوفر آثار التفكير الخام.",
"xai/grok-3.description": "نموذج xAI الرائد يتفوّق في حالات الاستخدام المؤسسية مثل استخراج البيانات، والبرمجة، والتلخيص، مع معرفة عميقة في مجالات مثل المالية، والرعاية الصحية، والقانون، والعلوم.",
"xai/grok-4.description": "أحدث نموذج رائد من xAI بأداء لا مثيل له في اللغة الطبيعية، والرياضيات، والاستدلال — مثالي لجميع الاستخدامات.",
"yi-large-fc.description": "مبني على yi-large مع تحسين استدعاء الأدوات، مناسب لسيناريوهات الوكلاء وسير العمل.",
"yi-large-preview.description": "إصدار مبكر؛ يُوصى باستخدام yi-large الأحدث.",
"yi-large-rag.description": "خدمة متقدمة مبنية على yi-large، تجمع بين الاسترجاع والتوليد لتقديم إجابات دقيقة مع بحث ويب في الوقت الحقيقي.",
"yi-large-turbo.description": "قيمة وأداء استثنائيان، مضبوط لتحقيق توازن قوي بين الجودة والسرعة والتكلفة.",
"yi-large.description": "نموذج جديد بسعة 100 مليار مع أداء قوي في الأسئلة والأجوبة وتوليد النصوص.",
"yi-lightning-lite.description": "إصدار خفيف الوزن؛ يُوصى باستخدام yi-lightning.",
"yi-lightning.description": "أحدث نموذج عالي الأداء مع استدلال أسرع وإخراج عالي الجودة.",
"yi-medium-200k.description": "نموذج طويل السياق بسعة 200 ألف لفهم وتوليد النصوص الطويلة بعمق.",
"yi-medium.description": "نموذج متوسط الحجم مضبوط لتحقيق توازن بين القدرات والقيمة، ومُحسّن لاتباع التعليمات.",
"yi-spark.description": "نموذج مدمج وسريع مع قدرات محسّنة في الرياضيات والبرمجة.",
"yi-vision-v2.description": "نموذج رؤية للمهام المعقدة مع فهم وتحليل قوي لصور متعددة.",
"yi-vision.description": "نموذج رؤية للمهام المعقدة مع فهم وتحليل قوي للصور.",
"z-ai/glm-4.5-air.description": "GLM 4.5 Air هو إصدار خفيف الوزن من GLM 4.5 مخصص للسيناريوهات الحساسة للتكلفة مع الحفاظ على قدرات استدلال قوية.",
"z-ai/glm-4.5.description": "GLM 4.5 هو النموذج الرائد من Z.AI باستدلال هجين مُحسّن للهندسة والمهام طويلة السياق.",
"z-ai/glm-4.6.description": "GLM 4.6 هو النموذج الرائد من Z.AI مع طول سياق ممتد وقدرات برمجية متقدمة.",
"z-ai/glm-4.7.description": "GLM-4.7 هو النموذج الرائد الأحدث من Zhipu، يقدم قدرات عامة محسَّنة، وردودًا أبسط وأكثر طبيعية، وتجربة كتابة أكثر تفاعلية.",
"z-ai/glm4.7.description": "GLM-4.7 هو أحدث نموذج رئيسي من Zhipu، محسّن لسيناريوهات البرمجة الوكيلية مع تحسين قدرات البرمجة.",
"z-ai/glm5.description": "GLM-5 هو النموذج الأساسي الجديد من Zhipu AI للهندسة الوكيلة، يحقق أداءً مفتوح المصدر SOTA في البرمجة وقدرات الوكلاء. يتطابق مع أداء Claude Opus 4.5.",
"z-image-turbo.description": "Z-Image هو نموذج خفيف الوزن لتحويل النصوص إلى صور يمكنه بسرعة إنتاج الصور، يدعم تقديم النصوص باللغتين الصينية والإنجليزية، ويتكيف بمرونة مع دقة متعددة ونسب عرض إلى ارتفاع.",
"zai-glm-4.7.description": "هذا النموذج يقدم أداءً قويًا في البرمجة مع قدرات تفكير متقدمة، واستخدام أدوات متفوق، وأداء معزز في تطبيقات البرمجة الوكيلة الواقعية.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air هو نموذج أساسي لتطبيقات الوكلاء يستخدم بنية Mixture-of-Experts. مُحسّن لاستخدام الأدوات، وتصفح الويب، والهندسة البرمجية، وبرمجة الواجهات، ويتكامل مع وكلاء البرمجة مثل Claude Code وRoo Code. يستخدم استدلالًا هجينًا للتعامل مع السيناريوهات المعقدة واليومية.",
"zai-org/GLM-4.5V.description": "GLM-4.5V هو أحدث نموذج رؤية من Zhipu AI، مبني على نموذج النص الرائد GLM-4.5-Air (إجمالي 106 مليار، 12 مليار نشط) باستخدام بنية MoE لأداء قوي بتكلفة أقل. يتبع مسار GLM-4.1V-Thinking ويضيف 3D-RoPE لتحسين الاستدلال المكاني ثلاثي الأبعاد. مُحسّن من خلال التدريب المسبق، والتعلم الخاضع للإشراف، والتعلم المعزز، ويتعامل مع الصور، والفيديو، والمستندات الطويلة، ويتصدر النماذج المفتوحة في 41 معيارًا متعدد الوسائط. يتيح وضع التفكير للمستخدمين التوازن بين السرعة والعمق.",
"zai-org/GLM-4.6.description": "مقارنة بـ GLM-4.5، يوسّع GLM-4.6 السياق من 128 ألف إلى 200 ألف لمهام الوكلاء المعقدة. يحقق نتائج أعلى في اختبارات البرمجة ويُظهر أداءً أقوى في التطبيقات الواقعية مثل Claude Code وCline وRoo Code وKilo Code، بما في ذلك توليد صفحات الواجهة الأمامية بشكل أفضل. تم تحسين الاستدلال ودعم استخدام الأدوات أثناء التفكير، مما يعزز القدرات العامة. يتكامل بشكل أفضل مع أطر الوكلاء، ويحسّن وكلاء الأدوات/البحث، ويتميز بأسلوب كتابة مفضل بشريًا وطبيعية في تقمص الأدوار.",
"zai-org/GLM-4.6V.description": "GLM-4.6V يحقق دقة فهم بصري رائدة بالنسبة لحجم معلماته وهو الأول الذي يدمج قدرات استدعاء الوظائف بشكل طبيعي في بنية نموذج الرؤية، مما يجسر الفجوة بين \"الإدراك البصري\" و\"الإجراءات القابلة للتنفيذ\" ويوفر أساسًا تقنيًا موحدًا للوكلاء متعدد الوسائط في سيناريوهات الأعمال الواقعية. تم تمديد نافذة السياق البصري إلى 128k، مما يدعم معالجة تدفقات الفيديو الطويلة وتحليل الصور عالية الدقة متعددة.",
"zai/glm-4.5-air.description": "GLM-4.5 وGLM-4.5-Air هما أحدث النماذج الرائدة لدينا لتطبيقات الوكلاء، وكلاهما يستخدم بنية MoE. يحتوي GLM-4.5 على 355 مليار إجمالي و32 مليار نشط لكل تمرير؛ بينما GLM-4.5-Air أنحف بإجمالي 106 مليار و12 مليار نشط.",
"zai/glm-4.5.description": "سلسلة GLM-4.5 مصممة للوكلاء. النموذج الرائد GLM-4.5 يجمع بين الاستدلال، والبرمجة، ومهارات الوكلاء مع 355 مليار معلمة إجمالية (32 مليار نشطة) ويقدّم أوضاع تشغيل مزدوجة كنظام استدلال هجين.",
"zai/glm-4.5v.description": "GLM-4.5V مبني على GLM-4.5-Air، ويَرِث تقنيات GLM-4.1V-Thinking المثبتة، ويتوسع ببنية MoE قوية بسعة 106 مليار.",
"zenmux/auto.description": "يختار ZenMux auto-routing النموذج الأفضل من حيث القيمة والأداء من بين الخيارات المدعومة بناءً على طلبك."
}