diff --git a/locales/ar/agent.json b/locales/ar/agent.json new file mode 100644 index 0000000000..16cbb9378f --- /dev/null +++ b/locales/ar/agent.json @@ -0,0 +1,34 @@ +{ + "integration.applicationId": "معرف التطبيق / اسم مستخدم الروبوت", + "integration.applicationIdPlaceholder": "مثال: 1234567890", + "integration.botToken": "رمز الروبوت / مفتاح API", + "integration.botTokenEncryptedHint": "سيتم تشفير الرمز وتخزينه بأمان.", + "integration.botTokenHowToGet": "كيف تحصل عليه؟", + "integration.botTokenPlaceholderExisting": "الرمز مخفي لأسباب أمنية", + "integration.botTokenPlaceholderNew": "الصق رمز الروبوت الخاص بك هنا", + "integration.connectionConfig": "إعدادات الاتصال", + "integration.copied": "تم النسخ إلى الحافظة", + "integration.copy": "نسخ", + "integration.deleteConfirm": "هل أنت متأكد أنك تريد إزالة هذا التكامل؟", + "integration.disabled": "معطل", + "integration.discord.description": "قم بتوصيل هذا المساعد بخادم Discord للدردشة في القنوات والرسائل المباشرة.", + "integration.documentation": "التوثيق", + "integration.enabled": "مفعل", + "integration.endpointUrl": "عنوان URL لنقطة التفاعل", + "integration.endpointUrlHint": "يرجى نسخ هذا العنوان ولصقه في الحقل \"عنوان URL لنقطة التفاعل\" في بوابة مطوري {{name}}.", + "integration.platforms": "المنصات", + "integration.publicKey": "المفتاح العام", + "integration.publicKeyPlaceholder": "مطلوب للتحقق من التفاعل", + "integration.removeFailed": "فشل في إزالة التكامل", + "integration.removeIntegration": "إزالة التكامل", + "integration.removed": "تم إزالة التكامل", + "integration.save": "حفظ الإعدادات", + "integration.saveFailed": "فشل في حفظ الإعدادات", + "integration.saveFirstWarning": "يرجى حفظ الإعدادات أولاً", + "integration.saved": "تم حفظ الإعدادات بنجاح", + "integration.testConnection": "اختبار الاتصال", + "integration.testFailed": "فشل اختبار الاتصال", + "integration.testSuccess": "نجح اختبار الاتصال", + "integration.updateFailed": "فشل في تحديث الحالة", + "integration.validationError": "يرجى ملء معرف التطبيق والرمز" +} diff --git a/locales/ar/chat.json b/locales/ar/chat.json index bdd1d3f48c..04b21b34d6 100644 --- a/locales/ar/chat.json +++ b/locales/ar/chat.json @@ -336,6 +336,7 @@ "supervisor.todoList.allComplete": "تم إكمال جميع المهام", "supervisor.todoList.title": "المهام المكتملة", "tab.groupProfile": "ملف المجموعة", + "tab.integration": "التكامل", "tab.profile": "ملف الوكيل", "tab.search": "بحث", "task.activity.calling": "جارٍ استدعاء المهارة...", diff --git a/locales/ar/common.json b/locales/ar/common.json index 1888b10e31..94ab8a968a 100644 --- a/locales/ar/common.json +++ b/locales/ar/common.json @@ -209,7 +209,6 @@ "delete": "حذف", "document": "دليل المستخدم", "download": "تنزيل", - "downloadClient": "تنزيل العميل", "duplicate": "تكرار", "edit": "تعديل", "errors.invalidFileFormat": "تنسيق الملف غير صالح", @@ -256,6 +255,7 @@ "footer.star.title": "قيّمنا على GitHub", "footer.title": "هل أعجبك منتجنا؟", "fullscreen": "وضع ملء الشاشة", + "getDesktopApp": "احصل على تطبيق سطح المكتب", "historyRange": "نطاق السجل", "home.suggestQuestions": "جرّب هذه الأمثلة", "import": "استيراد", diff --git a/locales/ar/models.json b/locales/ar/models.json index cc60cb9607..335919fddf 100644 --- a/locales/ar/models.json +++ b/locales/ar/models.json @@ -77,10 +77,8 @@ "MiniMax-M1.description": "نموذج استدلال داخلي جديد بسلسلة تفكير تصل إلى 80K ومدخلات حتى 1M، يقدم أداءً مماثلاً لأفضل النماذج العالمية.", "MiniMax-M2-Stable.description": "مصمم لتدفقات العمل البرمجية والوكلاء بكفاءة عالية، مع قدرة تزامن أعلى للاستخدام التجاري.", "MiniMax-M2.1-Lightning.description": "قدرات برمجة متعددة اللغات قوية وتجربة برمجة مطورة بالكامل. أسرع وأكثر كفاءة.", - "MiniMax-M2.1-highspeed.description": "قدرات برمجة متعددة اللغات قوية مع استنتاج أسرع وأكثر كفاءة.", "MiniMax-M2.1.description": "MiniMax-M2.1 هو نموذج مفتوح المصدر رائد من MiniMax، يركز على حل المهام الواقعية المعقدة. يتميز بقدرات برمجة متعددة اللغات والقدرة على أداء المهام المعقدة كوكلاء ذكي.", "MiniMax-M2.5-Lightning.description": "M2.5 Lightning: نفس الأداء، أسرع وأكثر رشاقة (تقريباً 100 tps).", - "MiniMax-M2.5-highspeed.description": "نفس أداء M2.5 مع استنتاج أسرع بشكل ملحوظ.", "MiniMax-M2.5.description": "MiniMax-M2.5 هو نموذج مفتوح المصدر رائد من MiniMax، يركز على حل المهام المعقدة في العالم الحقيقي. يتميز بقدرات برمجة متعددة اللغات والقدرة على حل المهام المعقدة كوكيل.", "MiniMax-M2.description": "مصمم خصيصًا للبرمجة الفعالة وتدفقات عمل الوكلاء.", "MiniMax-Text-01.description": "MiniMax-01 يقدم انتباهًا خطيًا واسع النطاق يتجاوز Transformers التقليدية، مع 456 مليار معامل و45.9 مليار مفعّلة في كل تمرير. يحقق أداءً من الدرجة الأولى ويدعم حتى 4 ملايين رمز سياقي (32× GPT-4o، 20× Claude-3.5-Sonnet).", @@ -283,9 +281,9 @@ "chatgpt-4o-latest.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي. يجمع بين فهم اللغة القوي وتوليدها للاستخدامات واسعة النطاق مثل دعم العملاء والتعليم والمساعدة التقنية.", "claude-2.0.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.", "claude-2.1.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.", - "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل الجديد من Anthropic، يتميز بتحسينات في المهارات ويتفوق على النموذج الرائد السابق Claude 3 Opus في العديد من المعايير.", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو النموذج الأسرع من Anthropic من الجيل التالي. مقارنة بـ Claude 3 Haiku، فإنه يحسن المهارات ويتفوق على النموذج السابق الأكبر Claude 3 Opus في العديد من معايير الذكاء.", "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku يقدم استجابات سريعة للمهام الخفيفة.", - "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هو أذكى نموذج من Anthropic وأول نموذج هجيني للاستدلال في السوق، يدعم الاستجابات الفورية أو التفكير المطول مع تحكم دقيق.", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هو النموذج الأكثر ذكاءً من Anthropic وأول نموذج تفكير هجين في السوق. يمكنه إنتاج استجابات شبه فورية أو استدلال خطوة بخطوة يمكن للمستخدمين رؤيته. يتميز Sonnet بشكل خاص في البرمجة وعلوم البيانات والرؤية والمهام الوكيلة.", "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.", "claude-3-haiku-20240307.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتقديم استجابات شبه فورية بأداء سريع ودقيق.", "claude-3-opus-20240229.description": "Claude 3 Opus هو أقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.", @@ -293,16 +291,16 @@ "claude-3.5-sonnet.description": "يتميز Claude 3.5 Sonnet بقدرات عالية في البرمجة والكتابة والتفكير المعقد.", "claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet مزود بقدرات تفكير موسعة للمهام التي تتطلب استدلالًا معقدًا.", "claude-3.7-sonnet.description": "Claude 3.7 Sonnet هو إصدار مطور يتمتع بسياق موسع وقدرات محسّنة.", - "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأذكى نموذج Haiku من Anthropic، يتميز بسرعة فائقة وقدرة على التفكير المتعمق.", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو النموذج الأسرع والأذكى من سلسلة Haiku من Anthropic، يتميز بسرعة البرق وقدرة استدلال ممتدة.", "claude-haiku-4.5.description": "Claude Haiku 4.5 نموذج سريع وفعّال لمجموعة متنوعة من المهام.", "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.", - "claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة للغاية، يتفوق في الأداء والذكاء والطلاقة والفهم.", - "claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بأداء فائق وذكاء وطلاقة وفهم عميق.", + "claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء والذكاء والطلاقة والفهم.", + "claude-opus-4-20250514.description": "Claude Opus 4 هو النموذج الأقوى من Anthropic للمهام المعقدة للغاية، يتميز بالأداء والذكاء والطلاقة والاستيعاب.", "claude-opus-4-5-20251101.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الاستثنائي والأداء القابل للتوسع، مثالي للمهام المعقدة التي تتطلب استجابات عالية الجودة وتفكير متقدم.", - "claude-opus-4-6.description": "Claude Opus 4.6 هو أذكى نموذج من Anthropic لتطوير الوكلاء والبرمجة.", + "claude-opus-4-6.description": "Claude Opus 4.6 هو النموذج الأكثر ذكاءً من Anthropic لبناء الوكلاء والبرمجة.", "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.", - "claude-sonnet-4-20250514.description": "Claude Sonnet 4 هو أذكى نموذج من Anthropic حتى الآن، يوفر استجابات شبه فورية أو تفكيرًا متسلسلًا بخطوات دقيقة لمستخدمي واجهة البرمجة.", - "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو أذكى نموذج من Anthropic حتى الآن.", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4 يمكنه إنتاج استجابات شبه فورية أو تفكير خطوة بخطوة مع عملية مرئية.", + "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو النموذج الأكثر ذكاءً من Anthropic حتى الآن.", "claude-sonnet-4-6.description": "Claude Sonnet 4.6 هو أفضل مزيج من السرعة والذكاء من Anthropic.", "claude-sonnet-4.description": "Claude Sonnet 4 هو الجيل الأحدث مع أداء محسّن في جميع المهام.", "codegeex-4.description": "CodeGeeX-4 هو مساعد برمجة ذكي يدعم الأسئلة والأجوبة متعددة اللغات وإكمال الشيفرة لزيادة إنتاجية المطورين.", @@ -373,7 +371,7 @@ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.", "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 هو نموذج استدلال من الجيل التالي يتميز بقدرات استدلال معقدة وسلسلة التفكير.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 هو نموذج رؤية-لغة MoE يعتمد على DeepSeekMoE-27B مع تنشيط متفرق، ويحقق أداءً قويًا باستخدام 4.5 مليار معلمة نشطة فقط. يتميز في الأسئلة البصرية، وOCR، وفهم المستندات/الجداول/المخططات، والتأريض البصري.", - "deepseek-chat.description": "DeepSeek V3.2 يوازن بين الاستدلال وطول المخرجات لمهام الأسئلة والأجوبة اليومية وتطبيقات الوكلاء. يحقق نتائج تضاهي GPT-5 في المعايير العامة، وهو الأول في دمج التفكير مع استخدام الأدوات، مما يجعله رائدًا في تقييمات الوكلاء مفتوحة المصدر.", + "deepseek-chat.description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة والبرمجية. يحافظ على حوار النموذج العام وقوة البرمجة للنموذج البرمجي، مع تحسين توافق التفضيلات. كما يحسن DeepSeek-V2.5 الكتابة واتباع التعليمات.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.", "deepseek-coder-v2.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.", "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.", @@ -396,7 +394,7 @@ "deepseek-r1-fast-online.description": "الإصدار الكامل السريع من DeepSeek R1 مع بحث ويب في الوقت الحقيقي، يجمع بين قدرات بحجم 671B واستجابة أسرع.", "deepseek-r1-online.description": "الإصدار الكامل من DeepSeek R1 مع 671 مليار معلمة وبحث ويب في الوقت الحقيقي، يوفر فهمًا وتوليدًا أقوى.", "deepseek-r1.description": "يستخدم DeepSeek-R1 بيانات البداية الباردة قبل التعلم المعزز ويؤدي أداءً مماثلًا لـ OpenAI-o1 في الرياضيات، والبرمجة، والتفكير.", - "deepseek-reasoner.description": "DeepSeek V3.2 Thinking هو نموذج استدلال عميق يولد سلسلة من الأفكار قبل المخرجات لتحقيق دقة أعلى، ويحقق نتائج تنافسية عالية واستدلالًا يقارن بـ Gemini-3.0-Pro.", + "deepseek-reasoner.description": "وضع التفكير DeepSeek V3.2 ينتج سلسلة من الأفكار قبل الإجابة النهائية لتحسين الدقة.", "deepseek-v2.description": "DeepSeek V2 هو نموذج MoE فعال لمعالجة منخفضة التكلفة.", "deepseek-v2:236b.description": "DeepSeek V2 236B هو نموذج DeepSeek الموجه للبرمجة مع قدرات قوية في توليد الكود.", "deepseek-v3-0324.description": "DeepSeek-V3-0324 هو نموذج MoE يحتوي على 671 مليار معلمة يتميز بقوة في البرمجة، والقدرات التقنية، وفهم السياق، والتعامل مع النصوص الطويلة.", @@ -491,8 +489,7 @@ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K هو نموذج تفكير سريع بسياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.", "ernie-x1.1-preview.description": "معاينة ERNIE X1.1 هو نموذج تفكير مخصص للتقييم والاختبار.", "ernie-x1.1.description": "ERNIE X1.1 هو نموذج تفكير تجريبي للتقييم والاختبار.", - "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5، من تطوير فريق Seed في ByteDance، يدعم تحرير الصور المتعددة وتركيبها. يتميز بثبات أكبر في العناصر، ودقة في تنفيذ التعليمات، وفهم للمنطق المكاني، وتعبير جمالي، وتصميم الملصقات والشعارات مع عرض دقيق للنصوص والصور.", - "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، من تطوير فريق Seed في ByteDance، يدعم إدخال النصوص والصور لتوليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة من خلال الأوامر.", + "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 هو نموذج توليد الصور من ByteDance Seed، يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بشكل كبير. يقوم بتوليد الصور من النصوص المدخلة.", "fal-ai/flux-kontext/dev.description": "نموذج FLUX.1 يركز على تحرير الصور، ويدعم إدخال النصوص والصور.", "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] يقبل النصوص وصور مرجعية كمدخلات، مما يتيح تعديلات محلية مستهدفة وتحولات معقدة في المشهد العام.", "fal-ai/flux/krea.description": "Flux Krea [dev] هو نموذج لتوليد الصور يتميز بميول جمالية نحو صور أكثر واقعية وطبيعية.", @@ -500,8 +497,8 @@ "fal-ai/hunyuan-image/v3.description": "نموذج قوي لتوليد الصور متعدد الوسائط أصلي.", "fal-ai/imagen4/preview.description": "نموذج عالي الجودة لتوليد الصور من Google.", "fal-ai/nano-banana.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google كفاءةً لتوليد وتحرير الصور من خلال المحادثة.", - "fal-ai/qwen-image-edit.description": "نموذج احترافي لتحرير الصور من فريق Qwen، يدعم التعديلات الدلالية والمظهرية، وتحرير النصوص بدقة باللغتين الصينية والإنجليزية، ونقل الأسلوب، والتدوير، والمزيد.", - "fal-ai/qwen-image.description": "نموذج قوي لتوليد الصور من فريق Qwen يتميز بعرض قوي للنصوص الصينية وأنماط بصرية متنوعة.", + "fal-ai/qwen-image-edit.description": "نموذج تحرير الصور الاحترافي من فريق Qwen يدعم التعديلات الدلالية والمظهرية، ويحرر النصوص الصينية والإنجليزية بدقة، ويمكّن من تعديلات عالية الجودة مثل نقل الأنماط وتدوير الكائنات.", + "fal-ai/qwen-image.description": "نموذج قوي لتوليد الصور من فريق Qwen يتميز بعرض نصوص صينية مذهلة وأنماط بصرية متنوعة.", "flux-1-schnell.description": "نموذج تحويل النص إلى صورة يحتوي على 12 مليار معلمة من Black Forest Labs يستخدم تقنيات تقطير الانتشار العدائي الكامن لتوليد صور عالية الجودة في 1-4 خطوات. ينافس البدائل المغلقة ومتاح بموجب ترخيص Apache-2.0 للاستخدام الشخصي والبحثي والتجاري.", "flux-dev.description": "FLUX.1 [dev] هو نموذج مفتوح الأوزان ومقطر للاستخدام غير التجاري. يحافظ على جودة صور قريبة من المستوى الاحترافي واتباع التعليمات مع كفاءة تشغيل أعلى مقارنة بالنماذج القياسية من نفس الحجم.", "flux-kontext-max.description": "توليد وتحرير صور سياقية متقدمة، تجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.", @@ -532,8 +529,6 @@ "gemini-2.0-flash-lite-001.description": "إصدار من Gemini 2.0 Flash محسن لتقليل التكلفة وتقليل التأخير.", "gemini-2.0-flash-lite.description": "إصدار من Gemini 2.0 Flash محسن لتقليل التكلفة وتقليل التأخير.", "gemini-2.0-flash.description": "Gemini 2.0 Flash يقدم ميزات الجيل التالي بما في ذلك السرعة الاستثنائية، واستخدام الأدوات الأصلية، والتوليد متعدد الوسائط، وسياق يصل إلى مليون رمز.", - "gemini-2.5-flash-image-preview.description": "Nano Banana هو أحدث وأسرع وأكثر النماذج متعددة الوسائط كفاءة من Google، يتيح توليد الصور وتحريرها من خلال المحادثة.", - "gemini-2.5-flash-image-preview:image.description": "Nano Banana هو أحدث وأسرع وأكثر النماذج متعددة الوسائط كفاءة من Google، يتيح توليد الصور وتحريرها من خلال المحادثة.", "gemini-2.5-flash-image.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google متعددة الوسائط كفاءة، يتيح توليد الصور وتحريرها عبر المحادثة.", "gemini-2.5-flash-image:image.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google متعددة الوسائط كفاءة، يتيح توليد الصور وتحريرها عبر المحادثة.", "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview هو أصغر نموذج من Google وأفضلها من حيث القيمة، مصمم للاستخدام واسع النطاق.", @@ -547,10 +542,10 @@ "gemini-2.5-pro.description": "Gemini 2.5 Pro هو النموذج الرائد من Google في مجال الاستدلال، يدعم السياق الطويل للمهام المعقدة.", "gemini-3-flash-preview.description": "Gemini 3 Flash هو أذكى نموذج تم تصميمه للسرعة، يجمع بين الذكاء المتقدم وأساس بحث ممتاز.", "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج إنشاء الصور من Google الذي يدعم أيضًا الحوار متعدد الوسائط.", - "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم أيضًا المحادثة متعددة الوسائط.", + "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم أيضًا الدردشة متعددة الوسائط.", "gemini-3-pro-preview.description": "Gemini 3 Pro هو أقوى نموذج من Google للوكيل الذكي والبرمجة الإبداعية، يقدم تفاعلاً أعمق وصورًا أغنى مع استدلال متقدم.", "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) هو أسرع نموذج إنشاء صور أصلي من Google مع دعم التفكير، وإنشاء الصور الحواري، والتحرير.", - "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) يقدم جودة صور احترافية بسرعة فائقة مع دعم الدردشة متعددة الوسائط.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) هو أسرع نموذج توليد صور أصلي من Google مع دعم التفكير، وتوليد الصور الحواري وتحريرها.", "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview يحسن من Gemini 3 Pro مع قدرات استدلال محسّنة ويضيف دعم مستوى التفكير المتوسط.", "gemini-flash-latest.description": "أحدث إصدار من Gemini Flash", "gemini-flash-lite-latest.description": "أحدث إصدار من Gemini Flash-Lite", @@ -692,7 +687,6 @@ "gpt-oss:120b.description": "GPT-OSS 120B هو نموذج لغة مفتوح المصدر كبير من OpenAI يستخدم تقنيات MXFP4 للكم، ويُعد نموذجًا رائدًا. يتطلب بيئات متعددة وحدات GPU أو محطات عمل عالية الأداء، ويقدم أداءً ممتازًا في الاستدلال المعقد وتوليد الأكواد والمعالجة متعددة اللغات، مع دعم متقدم لاستدعاء الوظائف وتكامل الأدوات.", "gpt-oss:20b.description": "GPT-OSS 20B هو نموذج لغة مفتوح المصدر من OpenAI يستخدم تقنيات MXFP4 للكم، مناسب لوحدات GPU الاستهلاكية عالية الأداء أو أجهزة Mac بمعالجات Apple Silicon. يتميز بأداء قوي في توليد الحوارات والبرمجة ومهام الاستدلال، ويدعم استدعاء الوظائف واستخدام الأدوات.", "gpt-realtime.description": "نموذج عام في الوقت الحقيقي يدعم إدخال وإخراج نصي وصوتي في الوقت الحقيقي، بالإضافة إلى إدخال الصور.", - "grok-2-image-1212.description": "أحدث نموذج لتوليد الصور لدينا، ينشئ صورًا واقعية وحيوية من التعليمات النصية، ويتفوق في حالات الاستخدام مثل التسويق ووسائل التواصل الاجتماعي والترفيه.", "grok-2-vision-1212.description": "تحسين في الدقة، واتباع التعليمات، والقدرة متعددة اللغات.", "grok-3-mini.description": "نموذج خفيف الوزن يفكر قبل الرد. سريع وذكي في المهام المنطقية التي لا تتطلب معرفة متخصصة عميقة، مع إمكانية الوصول إلى آثار التفكير الأولية.", "grok-3.description": "نموذج رائد يتفوق في حالات الاستخدام المؤسسية مثل استخراج البيانات، والبرمجة، والتلخيص، مع معرفة متخصصة عميقة في مجالات مثل المالية والرعاية الصحية والقانون والعلوم.", @@ -1141,7 +1135,11 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking هو نموذج تفكير متعدد الوسائط مخصص للاستدلال البصري التفصيلي.", "qwen3-vl-flash.description": "Qwen3 VL Flash: إصدار خفيف وسريع للاستدلال مخصص للطلبات الحساسة للزمن أو ذات الحجم الكبير.", "qwen3-vl-plus.description": "Qwen VL هو نموذج توليد نصوص مع فهم بصري. يمكنه تنفيذ OCR، والتلخيص، والاستدلال، مثل استخراج السمات من صور المنتجات أو حل المشكلات من الصور.", + "qwen3.5-122b-a10b.description": "يدعم إدخال النصوص والصور والفيديو. بالنسبة للمهام النصية فقط، أداؤه مشابه لـ Qwen3 Max، مع كفاءة أعلى وتكلفة أقل. في القدرات متعددة الوسائط، يقدم تحسينات كبيرة مقارنة بسلسلة Qwen3 VL.", + "qwen3.5-27b.description": "يدعم إدخال النصوص والصور والفيديو. بالنسبة للمهام النصية فقط، أداؤه مشابه لـ Qwen3 Max، مع كفاءة أعلى وتكلفة أقل. في القدرات متعددة الوسائط، يقدم تحسينات كبيرة مقارنة بسلسلة Qwen3 VL.", + "qwen3.5-35b-a3b.description": "يدعم إدخال النصوص والصور والفيديو. بالنسبة للمهام النصية فقط، أداؤه مشابه لـ Qwen3 Max، مع كفاءة أعلى وتكلفة أقل. في القدرات متعددة الوسائط، يقدم تحسينات كبيرة مقارنة بسلسلة Qwen3 VL.", "qwen3.5-397b-a17b.description": "يدعم إدخالات النصوص والصور والفيديو. بالنسبة للمهام النصية فقط، أداؤه مشابه لـ Qwen3 Max، مع تقديم كفاءة أعلى وتكلفة أقل. في القدرات متعددة الوسائط، يقدم تحسينات كبيرة مقارنة بسلسلة Qwen3 VL.", + "qwen3.5-flash.description": "أسرع وأقل تكلفة من نماذج Qwen، مثالي للمهام البسيطة.", "qwen3.5-plus.description": "Qwen3.5 Plus يدعم إدخال النصوص، الصور، والفيديو. أداؤه في المهام النصية البحتة يعادل Qwen3 Max، مع أداء أفضل وتكلفة أقل. قدراته متعددة الوسائط محسنة بشكل كبير مقارنة بسلسلة Qwen3 VL.", "qwen3.5:397b.description": "Qwen3.5 هو نموذج أساسي موحد للرؤية واللغة مع بنية هجينة (Mixture-of-Experts + انتباه خطي)، يقدم قدرات قوية في التفكير متعدد الوسائط، البرمجة، والسياقات الطويلة مع نافذة سياق 256K.", "qwen3.description": "Qwen3 هو نموذج اللغة الكبير من الجيل التالي من Alibaba، يتميز بأداء قوي في مجموعة متنوعة من الاستخدامات.", @@ -1151,8 +1149,6 @@ "qwq.description": "QwQ هو نموذج استدلال من عائلة Qwen. مقارنة بالنماذج المضبوطة على التعليمات، يقدم قدرات تفكير واستدلال تعزز الأداء بشكل كبير، خاصة في المشكلات الصعبة. QwQ-32B هو نموذج متوسط الحجم ينافس أفضل نماذج الاستدلال مثل DeepSeek-R1 و o1-mini.", "qwq_32b.description": "نموذج استدلال متوسط الحجم من عائلة Qwen. مقارنة بالنماذج المضبوطة على التعليمات، تعزز قدرات التفكير والاستدلال في QwQ الأداء بشكل كبير، خاصة في المشكلات الصعبة.", "r1-1776.description": "R1-1776 هو إصدار ما بعد التدريب من DeepSeek R1 مصمم لتقديم معلومات واقعية غير خاضعة للرقابة أو التحيز.", - "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro من ByteDance يدعم تحويل النصوص إلى فيديو، والصور إلى فيديو (الإطار الأول، أو الإطار الأول والأخير)، وتوليد الصوت المتزامن مع العناصر البصرية.", - "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite من BytePlus يتميز بتوليد معزز بالاسترجاع عبر الويب للحصول على معلومات في الوقت الفعلي، وتفسير محسّن للمطالبات المعقدة، وتناسق مرجعي محسّن للإبداع البصري المهني.", "solar-mini-ja.description": "Solar Mini (Ja) يوسع Solar Mini مع تركيز على اللغة اليابانية مع الحفاظ على الأداء القوي والكفاءة في الإنجليزية والكورية.", "solar-mini.description": "Solar Mini هو نموذج لغة مدمج يتفوق على GPT-3.5، يتميز بقدرات متعددة اللغات قوية تدعم الإنجليزية والكورية، ويقدم حلاً فعالاً بصمة صغيرة.", "solar-pro.description": "Solar Pro هو نموذج لغة عالي الذكاء من Upstage، يركز على اتباع التعليمات باستخدام وحدة معالجة رسومات واحدة، مع درجات IFEval تتجاوز 80. حالياً يدعم اللغة الإنجليزية؛ وكان من المقرر إصدار النسخة الكاملة في نوفمبر 2024 مع دعم لغات موسع وسياق أطول.", diff --git a/locales/ar/providers.json b/locales/ar/providers.json index c52e5f2d91..9ce4a8794d 100644 --- a/locales/ar/providers.json +++ b/locales/ar/providers.json @@ -30,7 +30,6 @@ "internlm.description": "منظمة مفتوحة المصدر تركز على أبحاث النماذج الكبيرة والأدوات، وتوفر منصة فعالة وسهلة الاستخدام تتيح الوصول إلى أحدث النماذج والخوارزميات.", "jina.description": "تأسست Jina AI في عام 2020، وهي شركة رائدة في مجال البحث الذكي. تشمل تقنياتها نماذج المتجهات، ومعيدو الترتيب، ونماذج لغوية صغيرة لبناء تطبيقات بحث توليدية ومتعددة الوسائط عالية الجودة.", "lmstudio.description": "LM Studio هو تطبيق سطح مكتب لتطوير وتجربة النماذج اللغوية الكبيرة على جهازك.", - "lobehub.description": "يستخدم LobeHub Cloud واجهات برمجة التطبيقات الرسمية للوصول إلى نماذج الذكاء الاصطناعي، ويقيس الاستخدام من خلال الأرصدة المرتبطة برموز النماذج.", "minimax.description": "تأسست MiniMax في عام 2021، وتبني نماذج ذكاء اصطناعي متعددة الوسائط للأغراض العامة، بما في ذلك نماذج نصية بمليارات المعلمات، ونماذج صوتية وبصرية، بالإضافة إلى تطبيقات مثل Hailuo AI.", "mistral.description": "تقدم Mistral نماذج متقدمة عامة ومتخصصة وبحثية للتفكير المعقد، والمهام متعددة اللغات، وتوليد الأكواد، مع دعم استدعاء الوظائف للتكامل المخصص.", "modelscope.description": "ModelScope هي منصة نماذج كخدمة من Alibaba Cloud، تقدم مجموعة واسعة من النماذج وخدمات الاستدلال.", diff --git a/locales/bg-BG/agent.json b/locales/bg-BG/agent.json new file mode 100644 index 0000000000..1d62c0f48a --- /dev/null +++ b/locales/bg-BG/agent.json @@ -0,0 +1,34 @@ +{ + "integration.applicationId": "Идентификатор на приложението / Потребителско име на бота", + "integration.applicationIdPlaceholder": "напр. 1234567890", + "integration.botToken": "Токен на бота / API ключ", + "integration.botTokenEncryptedHint": "Токенът ще бъде криптиран и съхранен сигурно.", + "integration.botTokenHowToGet": "Как да го получите?", + "integration.botTokenPlaceholderExisting": "Токенът е скрит за сигурност", + "integration.botTokenPlaceholderNew": "Поставете вашия токен на бота тук", + "integration.connectionConfig": "Конфигурация на връзката", + "integration.copied": "Копирано в клипборда", + "integration.copy": "Копирай", + "integration.deleteConfirm": "Сигурни ли сте, че искате да премахнете тази интеграция?", + "integration.disabled": "Деактивирано", + "integration.discord.description": "Свържете този асистент с Discord сървър за чат в канали и директни съобщения.", + "integration.documentation": "Документация", + "integration.enabled": "Активирано", + "integration.endpointUrl": "URL на крайна точка за взаимодействие", + "integration.endpointUrlHint": "Моля, копирайте този URL и го поставете в полето \"Interactions Endpoint URL\" в {{name}} Developer Portal.", + "integration.platforms": "Платформи", + "integration.publicKey": "Публичен ключ", + "integration.publicKeyPlaceholder": "Необходимо за проверка на взаимодействията", + "integration.removeFailed": "Неуспешно премахване на интеграцията", + "integration.removeIntegration": "Премахване на интеграцията", + "integration.removed": "Интеграцията е премахната", + "integration.save": "Запазване на конфигурацията", + "integration.saveFailed": "Неуспешно запазване на конфигурацията", + "integration.saveFirstWarning": "Моля, първо запазете конфигурацията", + "integration.saved": "Конфигурацията е успешно запазена", + "integration.testConnection": "Тестване на връзката", + "integration.testFailed": "Тестът на връзката неуспешен", + "integration.testSuccess": "Тестът на връзката успешен", + "integration.updateFailed": "Неуспешно актуализиране на статуса", + "integration.validationError": "Моля, попълнете Идентификатор на приложението и Токен" +} diff --git a/locales/bg-BG/chat.json b/locales/bg-BG/chat.json index a8aa5e8575..b3243583b7 100644 --- a/locales/bg-BG/chat.json +++ b/locales/bg-BG/chat.json @@ -336,6 +336,7 @@ "supervisor.todoList.allComplete": "Всички задачи са изпълнени", "supervisor.todoList.title": "Изпълнени задачи", "tab.groupProfile": "Профил на групата", + "tab.integration": "Интеграция", "tab.profile": "Профил на агента", "tab.search": "Търсене", "task.activity.calling": "Извикване на умение...", diff --git a/locales/bg-BG/common.json b/locales/bg-BG/common.json index d58126043e..a4340999e0 100644 --- a/locales/bg-BG/common.json +++ b/locales/bg-BG/common.json @@ -209,7 +209,6 @@ "delete": "Изтрий", "document": "Ръководство за потребителя", "download": "Изтегли", - "downloadClient": "Изтегли клиент", "duplicate": "Дублирай", "edit": "Редактирай", "errors.invalidFileFormat": "Невалиден файлов формат", @@ -256,6 +255,7 @@ "footer.star.title": "Дайте ни звезда в GitHub", "footer.title": "Харесвате ли нашия продукт?", "fullscreen": "Цял екран", + "getDesktopApp": "Изтеглете настолното приложение", "historyRange": "Обхват на историята", "home.suggestQuestions": "Опитайте с тези примери", "import": "Импортирай", diff --git a/locales/bg-BG/models.json b/locales/bg-BG/models.json index c0757040db..052605dea9 100644 --- a/locales/bg-BG/models.json +++ b/locales/bg-BG/models.json @@ -77,10 +77,8 @@ "MiniMax-M1.description": "Нов вътрешен модел за разсъждение с 80K верига на мисълта и 1M вход, предлагащ производителност, сравнима с водещите глобални модели.", "MiniMax-M2-Stable.description": "Създаден за ефективно програмиране и агентски работни потоци, с по-висока едновременност за търговска употреба.", "MiniMax-M2.1-Lightning.description": "Мощни многоезични възможности за програмиране и цялостно подобрено програмистко изживяване. По-бързо и по-ефективно.", - "MiniMax-M2.1-highspeed.description": "Мощни многоезични програмни възможности с по-бързо и ефективно извеждане.", "MiniMax-M2.1.description": "MiniMax-M2.1 е водеща отворена голяма езикова система от MiniMax, фокусирана върху решаването на сложни реални задачи. Основните ѝ предимства са възможностите за програмиране на множество езици и способността да действа като агент за решаване на сложни задачи.", "MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Същата производителност, по-бърз и по-агилен (приблизително 100 tps).", - "MiniMax-M2.5-highspeed.description": "Същата производителност като M2.5 с значително по-бързо извеждане.", "MiniMax-M2.5.description": "MiniMax-M2.5 е водещ модел с отворен код от MiniMax, фокусиран върху решаването на сложни реални задачи. Основните му предимства са мултиезиковите програмни възможности и способността да решава сложни задачи като агент.", "MiniMax-M2.description": "Създаден специално за ефективно програмиране и работни потоци с агенти", "MiniMax-Text-01.description": "MiniMax-01 въвежда мащабно линейно внимание отвъд класическите трансформери, с 456B параметри и 45.9B активирани на преминаване. Постига водеща производителност и поддържа до 4M токена контекст (32× GPT-4o, 20× Claude-3.5-Sonnet).", @@ -283,9 +281,9 @@ "chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време. Той комбинира силно разбиране на езика и генериране за мащабни случаи на употреба като клиентска поддръжка, образование и техническа помощ.", "claude-2.0.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.", "claude-2.1.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.", - "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic, с подобрени умения и превъзхождащ предишния водещ модел Claude 3 Opus в много бенчмаркове.", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от следващо поколение на Anthropic. В сравнение с Claude 3 Haiku, той подобрява уменията си и надминава предишния най-голям модел Claude 3 Opus по много интелектуални показатели.", "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku осигурява бързи отговори за леки задачи.", - "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара, предлагащ почти мигновени отговори или разширено мислене с прецизен контрол.", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара. Той може да генерира почти мигновени отговори или разширени стъпка-по-стъпка разсъждения, които потребителите могат да видят. Sonnet е особено силен в програмирането, анализа на данни, визуализацията и задачите за агенти.", "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.", "claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.", "claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.", @@ -293,15 +291,15 @@ "claude-3.5-sonnet.description": "Claude 3.5 Sonnet се отличава в програмиране, писане и сложни разсъждения.", "claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet с разширено мислене за задачи, изискващи сложни разсъждения.", "claude-3.7-sonnet.description": "Claude 3.7 Sonnet е надградена версия с разширен контекст и възможности.", - "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, с мълниеносна скорост и разширено мислене.", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-умният Haiku модел на Anthropic, с мълниеносна скорост и разширено разсъждение.", "claude-haiku-4.5.description": "Claude Haiku 4.5 е бърз и ефективен модел за различни задачи.", "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.", - "claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за изключително сложни задачи, отличаващ се с висока производителност, интелигентност, плавност и разбиране.", - "claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за изключително сложни задачи, отличаващ се с висока производителност, интелигентност, плавност и разбиране.", + "claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за изключително сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.", + "claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за изключително сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.", "claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.", "claude-opus-4-6.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за изграждане на агенти и програмиране.", "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.", - "claude-sonnet-4-20250514.description": "Claude Sonnet 4 е най-интелигентният модел на Anthropic досега, предлагащ почти мигновени отговори или разширено поетапно мислене с прецизен контрол за потребителите на API.", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4 може да генерира почти мигновени отговори или разширено стъпка-по-стъпка мислене с видим процес.", "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic досега.", "claude-sonnet-4-6.description": "Claude Sonnet 4.6 е най-добрата комбинация от скорост и интелигентност на Anthropic.", "claude-sonnet-4.description": "Claude Sonnet 4 е най-новото поколение с подобрена производителност във всички задачи.", @@ -373,7 +371,7 @@ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.", "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 е модел за разсъждение от следващо поколение с по-силни способности за сложни разсъждения и верига на мисълта.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 е MoE модел за визия и език, базиран на DeepSeekMoE-27B със слаба активация, постигайки висока производителност с едва 4.5 милиарда активни параметъра. Отличава се в визуални въпроси и отговори, OCR, разбиране на документи/таблици/графики и визуално привързване.", - "deepseek-chat.description": "DeepSeek V3.2 балансира разсъждението и дължината на отговорите за ежедневни въпроси и задачи на агенти. Публичните бенчмаркове достигат нивата на GPT-5, а това е първият модел, който интегрира мислене в използването на инструменти, водещ в оценките на отворен код за агенти.", + "deepseek-chat.description": "Нов модел с отворен код, комбиниращ общи и кодови способности. Той запазва общия диалог на чат модела и силното програмиране на кодовия модел, с по-добро съответствие на предпочитанията. DeepSeek-V2.5 също така подобрява писането и следването на инструкции.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.", "deepseek-coder-v2.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.", "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.", @@ -396,7 +394,7 @@ "deepseek-r1-fast-online.description": "Пълна бърза версия на DeepSeek R1 с търсене в реално време в уеб, комбинираща възможности от мащаб 671B и по-бърз отговор.", "deepseek-r1-online.description": "Пълна версия на DeepSeek R1 с 671 милиарда параметъра и търсене в реално време в уеб, предлагаща по-силно разбиране и генериране.", "deepseek-r1.description": "DeepSeek-R1 използва данни от студен старт преди подсиленото обучение и се представя наравно с OpenAI-o1 в математика, програмиране и разсъждение.", - "deepseek-reasoner.description": "DeepSeek V3.2 Thinking е дълбок разсъждаващ модел, който генерира верига от мисли преди отговорите за по-висока точност, с водещи резултати в състезания и разсъждение, сравнимо с Gemini-3.0-Pro.", + "deepseek-reasoner.description": "DeepSeek V3.2 режим на мислене генерира верига от разсъждения преди крайния отговор за подобряване на точността.", "deepseek-v2.description": "DeepSeek V2 е ефективен MoE модел за икономична обработка.", "deepseek-v2:236b.description": "DeepSeek V2 236B е модел на DeepSeek, фокусиран върху програмиране, с висока производителност при генериране на код.", "deepseek-v3-0324.description": "DeepSeek-V3-0324 е MoE модел с 671 милиарда параметъра, с изключителни способности в програмиране, технически задачи, разбиране на контекст и обработка на дълги текстове.", @@ -491,8 +489,7 @@ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K е бърз мислещ модел с 32K контекст за сложни разсъждения и многозавойни разговори.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview е предварителен модел за мислене, предназначен за оценка и тестване.", "ernie-x1.1.description": "ERNIE X1.1 е мисловен модел за предварителен преглед за оценка и тестване.", - "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, разработен от екипа Seed на ByteDance, поддържа редактиране и композиране на множество изображения. Отличава се с подобрена последователност на обектите, точно следване на инструкции, разбиране на пространствена логика, естетическо изразяване, оформление на постери и дизайн на лога с високопрецизно визуално-текстово рендиране.", - "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, разработен от ByteDance Seed, поддържа текстови и визуални входове за висококачествено и силно контролируемо генериране на изображения от подсказки.", + "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 е модел за генериране на изображения от ByteDance Seed, поддържащ текстови и визуални входове с високо контролируемо и висококачествено генериране на изображения. Той генерира изображения от текстови подсказки.", "fal-ai/flux-kontext/dev.description": "FLUX.1 модел, фокусиран върху редактиране на изображения, поддържащ вход от текст и изображения.", "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] приема текст и референтни изображения като вход, позволявайки целенасочени локални редакции и сложни глобални трансформации на сцени.", "fal-ai/flux/krea.description": "Flux Krea [dev] е модел за генериране на изображения с естетично предпочитание към по-реалистични и естествени изображения.", @@ -500,8 +497,8 @@ "fal-ai/hunyuan-image/v3.description": "Мощен роден мултимодален модел за генериране на изображения.", "fal-ai/imagen4/preview.description": "Модел за висококачествено генериране на изображения от Google.", "fal-ai/nano-banana.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ генериране и редактиране на изображения чрез разговор.", - "fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа Qwen, поддържащ семантични и визуални редакции, прецизно редактиране на текст на китайски/английски, трансфер на стил, завъртане и други.", - "fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа Qwen с отлично визуализиране на китайски текст и разнообразни визуални стилове.", + "fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа на Qwen, който поддържа семантични и визуални редакции, прецизно редактира китайски и английски текст и позволява висококачествени редакции като трансфер на стил и въртене на обекти.", + "fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа на Qwen с впечатляващо рендиране на китайски текст и разнообразни визуални стилове.", "flux-1-schnell.description": "Модел за преобразуване на текст в изображение с 12 милиарда параметъра от Black Forest Labs, използващ латентна дифузионна дестилация за генериране на висококачествени изображения в 1–4 стъпки. Съперничи на затворени алтернативи и е пуснат под лиценз Apache-2.0 за лична, изследователска и търговска употреба.", "flux-dev.description": "FLUX.1 [dev] е дестилиран модел с отворени тегла за нетърговска употреба. Запазва почти професионално качество на изображенията и следване на инструкции, като същевременно работи по-ефективно и използва ресурсите по-добре от стандартни модели със същия размер.", "flux-kontext-max.description": "Съвременно генериране и редактиране на изображения с контекст, комбиниращо текст и изображения за прецизни и последователни резултати.", @@ -532,8 +529,6 @@ "gemini-2.0-flash-lite-001.description": "Вариант на Gemini 2.0 Flash, оптимизиран за ниска цена и ниска латентност.", "gemini-2.0-flash-lite.description": "Вариант на Gemini 2.0 Flash, оптимизиран за ниска цена и ниска латентност.", "gemini-2.0-flash.description": "Gemini 2.0 Flash предлага функции от ново поколение, включително изключителна скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена.", - "gemini-2.5-flash-image-preview.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.", - "gemini-2.5-flash-image-preview:image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.", "gemini-2.5-flash-image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.", "gemini-2.5-flash-image:image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.", "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview е най-малкият и най-изгоден модел на Google, проектиран за мащабна употреба.", @@ -547,10 +542,10 @@ "gemini-2.5-pro.description": "Gemini 2.5 Pro е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.", "gemini-3-flash-preview.description": "Gemini 3 Flash е най-интелигентният модел, създаден за скорост, съчетаващ авангардна интелигентност с отлично търсене и обоснованост.", "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел за генериране на изображения на Google, който също поддържа мултимодален диалог.", - "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е моделът на Google за генериране на изображения и поддържа мултимодален чат.", + "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел за генериране на изображения на Google, който също поддържа мултимодален чат.", "gemini-3-pro-preview.description": "Gemini 3 Pro е най-мощният агентен и „vibe-coding“ модел на Google, който предлага по-богати визуализации и по-дълбоко взаимодействие, базирано на съвременно логическо мислене.", "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) е най-бързият модел на Google за генериране на изображения с поддръжка на мислене, разговорно генериране и редактиране на изображения.", - "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) предоставя професионално качество на изображенията с Flash скорост и поддръжка на мултимодални разговори.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) е най-бързият модел на Google за генериране на изображения с поддръжка на мислене, разговорно генериране и редактиране на изображения.", "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview подобрява Gemini 3 Pro с усъвършенствани способности за разсъждение и добавя поддръжка за средно ниво на мислене.", "gemini-flash-latest.description": "Най-новата версия на Gemini Flash", "gemini-flash-lite-latest.description": "Най-новата версия на Gemini Flash-Lite", @@ -692,7 +687,6 @@ "gpt-oss:120b.description": "GPT-OSS 120B е големият отворен езиков модел на OpenAI, използващ MXFP4 квантизация и позициониран като водещ модел. Изисква среди с множество GPU или висок клас работни станции и осигурява отлично представяне при сложни логически задачи, генериране на код и многоезична обработка, с усъвършенствано извикване на функции и интеграция с инструменти.", "gpt-oss:20b.description": "GPT-OSS 20B е отворен езиков модел на OpenAI, използващ MXFP4 квантизация, подходящ за потребителски GPU от висок клас или Apple Silicon Mac. Представя се добре при генериране на диалози, програмиране и логически задачи, поддържа извикване на функции и използване на инструменти.", "gpt-realtime.description": "Общ модел в реално време, поддържащ текстов и аудио вход/изход в реално време, както и вход от изображения.", - "grok-2-image-1212.description": "Нашият най-нов модел за генериране на изображения създава живи, реалистични изображения от текстови подсказки и се отличава в маркетинг, социални мрежи и развлекателни приложения.", "grok-2-vision-1212.description": "Подобрена точност, следване на инструкции и многоезични възможности.", "grok-3-mini.description": "Олекотен модел, който обмисля преди да отговори. Бърз и интелигентен при логически задачи, които не изискват дълбоки познания, с достъп до сурови логически следи.", "grok-3.description": "Водещ модел, който се отличава в корпоративни приложения като извличане на данни, програмиране и обобщаване, с дълбоки познания във финанси, здравеопазване, право и наука.", @@ -1141,7 +1135,11 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking е мултимоделен модел с верига на мисълта за детайлна визуална аргументация.", "qwen3-vl-flash.description": "Qwen3 VL Flash: лек, високоскоростен модел за аргументация, подходящ за заявки с ниска латентност или голям обем.", "qwen3-vl-plus.description": "Qwen VL е модел за генериране на текст с разбиране на визуално съдържание. Може да извършва OCR, както и обобщаване и логическа обработка, например извличане на атрибути от продуктови снимки или решаване на задачи от изображения.", + "qwen3.5-122b-a10b.description": "Поддържа текстови, визуални и видео входове. За задачи само с текст, неговата производителност е сравнима с Qwen3 Max, предлагайки по-висока ефективност и по-ниска цена. В мултимодалните способности той предоставя значителни подобрения спрямо серията Qwen3 VL.", + "qwen3.5-27b.description": "Поддържа текстови, визуални и видео входове. За задачи само с текст, неговата производителност е сравнима с Qwen3 Max, предлагайки по-висока ефективност и по-ниска цена. В мултимодалните способности той предоставя значителни подобрения спрямо серията Qwen3 VL.", + "qwen3.5-35b-a3b.description": "Поддържа текстови, визуални и видео входове. За задачи само с текст, неговата производителност е сравнима с Qwen3 Max, предлагайки по-висока ефективност и по-ниска цена. В мултимодалните способности той предоставя значителни подобрения спрямо серията Qwen3 VL.", "qwen3.5-397b-a17b.description": "Поддържа текст, изображения и видео входове. За задачи само с текст, производителността му е сравнима с Qwen3 Max, предлагайки по-висока ефективност и по-ниска цена. В мултимодалните способности той предоставя значителни подобрения спрямо серията Qwen3 VL.", + "qwen3.5-flash.description": "Най-бързият и най-нискобюджетен модел Qwen, идеален за прости задачи.", "qwen3.5-plus.description": "Qwen3.5 Plus поддържа текст, изображения и видео вход. Производителността му при чисто текстови задачи е сравнима с Qwen3 Max, с по-добра производителност и по-ниска цена. Мултимодалните му възможности са значително подобрени в сравнение със серията Qwen3 VL.", "qwen3.5:397b.description": "Qwen3.5 е обединен модел за визия и език с хибридна архитектура (Mixture-of-Experts + линейно внимание), предлагащ силни мултимодални разсъждения, кодиране и способности за дълъг контекст с 256K контекстен прозорец.", "qwen3.description": "Qwen3 е следващото поколение голям езиков модел на Alibaba с висока ефективност в разнообразни приложения.", @@ -1151,8 +1149,6 @@ "qwq.description": "QwQ е модел за аргументация от семейството на Qwen. В сравнение със стандартните модели, обучени с инструкции, предлага мисловни и логически способности, които значително подобряват ефективността при трудни задачи. QwQ-32B е среден по размер модел, който се конкурира с водещи модели като DeepSeek-R1 и o1-mini.", "qwq_32b.description": "Среден по размер модел за аргументация от семейството на Qwen. В сравнение със стандартните модели, обучени с инструкции, мисловните и логическите способности на QwQ значително подобряват ефективността при трудни задачи.", "r1-1776.description": "R1-1776 е дообучен вариант на DeepSeek R1, създаден да предоставя неконфронтирана, обективна и фактическа информация.", - "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro от ByteDance поддържа генериране на видео от текст, от изображение към видео (първи кадър, първи+последен кадър) и синхронизирано с визуалното съдържание аудио.", - "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite от BytePlus предлага генериране, обогатено с уеб извличане за информация в реално време, подобрена интерпретация на сложни подсказки и подобрена консистентност на референциите за професионално визуално създаване.", "solar-mini-ja.description": "Solar Mini (Ja) разширява Solar Mini с фокус върху японски език, като запазва ефективността и силната производителност на английски и корейски.", "solar-mini.description": "Solar Mini е компактен LLM, който превъзхожда GPT-3.5, с мощни многоезични възможности, поддържащ английски и корейски, и предлага ефективно решение с малък отпечатък.", "solar-pro.description": "Solar Pro е интелигентен LLM от Upstage, фокусиран върху следване на инструкции на един GPU, с IFEval резултати над 80. Понастоящем поддържа английски; пълното издание е планирано за ноември 2024 с разширена езикова поддръжка и по-дълъг контекст.", diff --git a/locales/bg-BG/providers.json b/locales/bg-BG/providers.json index cace34f0fa..5102ae0620 100644 --- a/locales/bg-BG/providers.json +++ b/locales/bg-BG/providers.json @@ -30,7 +30,6 @@ "internlm.description": "Open-source организация, фокусирана върху изследвания и инструменти за големи модели, предоставяща ефективна и лесна за използване платформа за достъп до водещи модели и алгоритми.", "jina.description": "Основана през 2020 г., Jina AI е водеща компания в областта на търсещия AI. Технологичният ѝ стек включва векторни модели, преоценители и малки езикови модели за създаване на надеждни генеративни и мултимодални търсещи приложения.", "lmstudio.description": "LM Studio е десктоп приложение за разработка и експериментиране с LLM на вашия компютър.", - "lobehub.description": "LobeHub Cloud използва официални API-та за достъп до AI модели и измерва използването чрез Кредити, свързани с токени на модела.", "minimax.description": "Основана през 2021 г., MiniMax създава универсален AI с мултимодални базови модели, включително текстови модели с трилиони параметри, речеви и визуални модели, както и приложения като Hailuo AI.", "mistral.description": "Mistral предлага усъвършенствани универсални, специализирани и изследователски модели за сложни разсъждения, многоезични задачи и генериране на код, с извикване на функции за персонализирани интеграции.", "modelscope.description": "ModelScope е платформа на Alibaba Cloud за модели като услуга, предлагаща широка гама от AI модели и услуги за инференция.", diff --git a/locales/de-DE/agent.json b/locales/de-DE/agent.json new file mode 100644 index 0000000000..2e2f6fa0c2 --- /dev/null +++ b/locales/de-DE/agent.json @@ -0,0 +1,34 @@ +{ + "integration.applicationId": "Anwendungs-ID / Bot-Benutzername", + "integration.applicationIdPlaceholder": "z. B. 1234567890", + "integration.botToken": "Bot-Token / API-Schlüssel", + "integration.botTokenEncryptedHint": "Token wird verschlüsselt und sicher gespeichert.", + "integration.botTokenHowToGet": "Wie erhalten?", + "integration.botTokenPlaceholderExisting": "Token ist aus Sicherheitsgründen verborgen", + "integration.botTokenPlaceholderNew": "Fügen Sie hier Ihren Bot-Token ein", + "integration.connectionConfig": "Verbindungskonfiguration", + "integration.copied": "In die Zwischenablage kopiert", + "integration.copy": "Kopieren", + "integration.deleteConfirm": "Sind Sie sicher, dass Sie diese Integration entfernen möchten?", + "integration.disabled": "Deaktiviert", + "integration.discord.description": "Verbinden Sie diesen Assistenten mit einem Discord-Server für Kanal-Chat und Direktnachrichten.", + "integration.documentation": "Dokumentation", + "integration.enabled": "Aktiviert", + "integration.endpointUrl": "Interaktions-Endpunkt-URL", + "integration.endpointUrlHint": "Bitte kopieren Sie diese URL und fügen Sie sie in das Feld \"Interaktions-Endpunkt-URL\" im {{name}} Entwicklerportal ein.", + "integration.platforms": "Plattformen", + "integration.publicKey": "Öffentlicher Schlüssel", + "integration.publicKeyPlaceholder": "Erforderlich für die Interaktionsüberprüfung", + "integration.removeFailed": "Integration konnte nicht entfernt werden", + "integration.removeIntegration": "Integration entfernen", + "integration.removed": "Integration entfernt", + "integration.save": "Konfiguration speichern", + "integration.saveFailed": "Konfiguration konnte nicht gespeichert werden", + "integration.saveFirstWarning": "Bitte speichern Sie zuerst die Konfiguration", + "integration.saved": "Konfiguration erfolgreich gespeichert", + "integration.testConnection": "Verbindung testen", + "integration.testFailed": "Verbindungstest fehlgeschlagen", + "integration.testSuccess": "Verbindungstest erfolgreich", + "integration.updateFailed": "Status konnte nicht aktualisiert werden", + "integration.validationError": "Bitte füllen Sie Anwendungs-ID und Token aus" +} diff --git a/locales/de-DE/chat.json b/locales/de-DE/chat.json index 55a255b027..bbe4f5507c 100644 --- a/locales/de-DE/chat.json +++ b/locales/de-DE/chat.json @@ -336,6 +336,7 @@ "supervisor.todoList.allComplete": "Alle Aufgaben erledigt", "supervisor.todoList.title": "Erledigte Aufgaben", "tab.groupProfile": "Gruppenprofil", + "tab.integration": "Integration", "tab.profile": "Agentenprofil", "tab.search": "Suche", "task.activity.calling": "Skill wird aufgerufen...", diff --git a/locales/de-DE/common.json b/locales/de-DE/common.json index e4335faa94..45a40cb9af 100644 --- a/locales/de-DE/common.json +++ b/locales/de-DE/common.json @@ -209,7 +209,6 @@ "delete": "Löschen", "document": "Benutzerhandbuch", "download": "Herunterladen", - "downloadClient": "Client herunterladen", "duplicate": "Duplizieren", "edit": "Bearbeiten", "errors.invalidFileFormat": "Ungültiges Dateiformat", @@ -256,6 +255,7 @@ "footer.star.title": "Geben Sie uns einen Stern auf GitHub", "footer.title": "Gefällt Ihnen unser Produkt?", "fullscreen": "Vollbildmodus", + "getDesktopApp": "Desktop-App herunterladen", "historyRange": "Verlaufsspanne", "home.suggestQuestions": "Probieren Sie diese Beispiele aus", "import": "Importieren", diff --git a/locales/de-DE/models.json b/locales/de-DE/models.json index aed16e24d3..60eb130164 100644 --- a/locales/de-DE/models.json +++ b/locales/de-DE/models.json @@ -77,10 +77,8 @@ "MiniMax-M1.description": "Ein neues Inhouse-Argumentationsmodell mit 80K Chain-of-Thought und 1M Eingabe, vergleichbar mit führenden globalen Modellen.", "MiniMax-M2-Stable.description": "Entwickelt für effizientes Coden und Agenten-Workflows mit höherer Parallelität für den kommerziellen Einsatz.", "MiniMax-M2.1-Lightning.description": "Leistungsstarke mehrsprachige Programmierfunktionen, umfassend verbesserte Programmiererfahrung. Schneller und effizienter.", - "MiniMax-M2.1-highspeed.description": "Leistungsstarke mehrsprachige Programmierfähigkeiten mit schnellerer und effizienterer Inferenz.", "MiniMax-M2.1.description": "MiniMax-M2.1 ist das Flaggschiff unter den Open-Source-Großmodellen von MiniMax und konzentriert sich auf die Lösung komplexer Aufgaben aus der realen Welt. Seine zentralen Stärken liegen in der mehrsprachigen Programmierfähigkeit und der Fähigkeit, als Agent komplexe Aufgaben zu bewältigen.", "MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Gleiche Leistung, schneller und agiler (ca. 100 tps).", - "MiniMax-M2.5-highspeed.description": "Gleiche Leistung wie M2.5 mit deutlich schnellerer Inferenz.", "MiniMax-M2.5.description": "MiniMax-M2.5 ist ein Flaggschiff-Open-Source-Großmodell von MiniMax, das sich auf die Lösung komplexer realer Aufgaben konzentriert. Seine Kernstärken sind mehrsprachige Programmierfähigkeiten und die Fähigkeit, komplexe Aufgaben als Agent zu lösen.", "MiniMax-M2.description": "Speziell für effizientes Programmieren und Agenten-Workflows entwickelt", "MiniMax-Text-01.description": "MiniMax-01 führt großskalige lineare Aufmerksamkeit über klassische Transformer hinaus ein. Mit 456B Parametern und 45,9B aktiv pro Durchlauf erreicht es Spitzenleistung und unterstützt bis zu 4M Token Kontext (32× GPT-4o, 20× Claude-3.5-Sonnet).", @@ -283,9 +281,9 @@ "chatgpt-4o-latest.description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird. Es kombiniert starkes Sprachverständnis und -generierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technische Unterstützung.", "claude-2.0.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.", "claude-2.1.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.", - "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic und verbessert sich in zahlreichen Fähigkeiten. Es übertrifft das bisherige Flaggschiff Claude 3 Opus in vielen Benchmarks.", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic. Im Vergleich zu Claude 3 Haiku verbessert es sich in allen Fähigkeiten und übertrifft das bisher größte Modell Claude 3 Opus in vielen Intelligenz-Benchmarks.", "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku liefert schnelle Antworten für leichte Aufgaben.", - "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 ist das intelligenteste Modell von Anthropic und das erste Hybrid-Reasoning-Modell auf dem Markt. Es ermöglicht nahezu sofortige Antworten oder tiefgehendes Denken mit präziser Steuerung.", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet ist das intelligenteste Modell von Anthropic und das erste Hybrid-Reasoning-Modell auf dem Markt. Es kann nahezu sofortige Antworten oder ausführliche schrittweise Argumentationen liefern, die Benutzer nachvollziehen können. Sonnet ist besonders stark in den Bereichen Programmierung, Datenwissenschaft, Vision und Agentenaufgaben.", "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.", "claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.", "claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.", @@ -293,15 +291,15 @@ "claude-3.5-sonnet.description": "Claude 3.5 Sonnet überzeugt durch herausragende Leistungen in den Bereichen Programmierung, Schreiben und komplexes Denken.", "claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet mit erweitertem Denkvermögen für anspruchsvolle Aufgaben im Bereich komplexes Schlussfolgern.", "claude-3.7-sonnet.description": "Claude 3.7 Sonnet ist eine verbesserte Version mit erweitertem Kontext und erweiterten Fähigkeiten.", - "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic – mit blitzschneller Reaktionszeit und erweitertem Denkvermögen.", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic, mit blitzschneller Geschwindigkeit und erweiterten Argumentationsfähigkeiten.", "claude-haiku-4.5.description": "Claude Haiku 4.5 ist ein schnelles und effizientes Modell für vielfältige Aufgaben.", "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.", - "claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt durch herausragende Leistung, Intelligenz, Sprachgewandtheit und Verständnis.", - "claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und zeichnet sich durch exzellente Leistung, Intelligenz, Sprachgewandtheit und Verständnis aus.", + "claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben und überzeugt durch Leistung, Intelligenz, Sprachgewandtheit und Verständnis.", + "claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und überzeugt durch Leistung, Intelligenz, Sprachgewandtheit und Verständnis.", "claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.", - "claude-opus-4-6.description": "Claude Opus 4.6 ist das intelligenteste Modell von Anthropic für den Aufbau von Agenten und das Programmieren.", + "claude-opus-4-6.description": "Claude Opus 4.6 ist das intelligenteste Modell von Anthropic für die Entwicklung von Agenten und Programmierung.", "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.", - "claude-sonnet-4-20250514.description": "Claude Sonnet 4 ist das bisher intelligenteste Modell von Anthropic. Es bietet nahezu sofortige Antworten oder schrittweises Denken mit feingranularer Steuerung für API-Nutzer.", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4 kann nahezu sofortige Antworten oder ausführliches schrittweises Denken mit sichtbarem Prozess liefern.", "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.", "claude-sonnet-4-6.description": "Claude Sonnet 4.6 ist die beste Kombination aus Geschwindigkeit und Intelligenz von Anthropic.", "claude-sonnet-4.description": "Claude Sonnet 4 ist die neueste Generation mit verbesserter Leistung in allen Aufgabenbereichen.", @@ -373,7 +371,7 @@ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.", "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 ist ein Next-Gen-Modell für logisches Denken mit stärkeren Fähigkeiten für komplexes Denken und Kettenlogik.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 ist ein MoE Vision-Language-Modell auf Basis von DeepSeekMoE-27B mit sparsamer Aktivierung. Es erreicht starke Leistung mit nur 4,5B aktiven Parametern und überzeugt bei visuellen QA-Aufgaben, OCR, Dokument-/Tabellen-/Diagrammverständnis und visueller Verankerung.", - "deepseek-chat.description": "DeepSeek V3.2 bietet ein ausgewogenes Verhältnis zwischen logischem Denken und Ausgabelänge für tägliche Frage-Antwort- und Agentenaufgaben. Öffentliche Benchmarks erreichen GPT-5-Niveau. Es ist das erste Modell, das Denken in die Werkzeugnutzung integriert und führend in Open-Source-Agentenbewertungen.", + "deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und Programmierfähigkeiten kombiniert. Es bewahrt den allgemeinen Dialog des Chat-Modells und die starken Programmierfähigkeiten des Coder-Modells mit besserer Präferenzabstimmung. DeepSeek-V2.5 verbessert auch das Schreiben und das Befolgen von Anweisungen.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2 B Tokens (87 % Code, 13 % chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.", "deepseek-coder-v2.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.", "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.", @@ -396,7 +394,7 @@ "deepseek-r1-fast-online.description": "DeepSeek R1 Schnellversion mit Echtzeit-Websuche – kombiniert 671B-Fähigkeiten mit schneller Reaktion.", "deepseek-r1-online.description": "DeepSeek R1 Vollversion mit 671B Parametern und Echtzeit-Websuche – bietet stärkeres Verständnis und bessere Generierung.", "deepseek-r1.description": "DeepSeek-R1 nutzt Cold-Start-Daten vor dem RL und erreicht vergleichbare Leistungen wie OpenAI-o1 bei Mathematik, Programmierung und logischem Denken.", - "deepseek-reasoner.description": "DeepSeek V3.2 Thinking ist ein Modell für tiefes logisches Denken, das vor der Ausgabe eine Gedankenkette generiert, um die Genauigkeit zu erhöhen. Es erzielt Spitzenwerte in Wettbewerben und bietet ein Denkvermögen vergleichbar mit Gemini-3.0-Pro.", + "deepseek-reasoner.description": "DeepSeek V3.2 Denkmodus gibt eine Gedankenkette vor der endgültigen Antwort aus, um die Genauigkeit zu verbessern.", "deepseek-v2.description": "DeepSeek V2 ist ein effizientes MoE-Modell für kostengünstige Verarbeitung.", "deepseek-v2:236b.description": "DeepSeek V2 236B ist das codefokussierte Modell von DeepSeek mit starker Codegenerierung.", "deepseek-v3-0324.description": "DeepSeek-V3-0324 ist ein MoE-Modell mit 671B Parametern und herausragenden Stärken in Programmierung, technischer Kompetenz, Kontextverständnis und Langtextverarbeitung.", @@ -491,8 +489,7 @@ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K ist ein schnelles Denkmodell mit 32K Kontext für komplexe Schlussfolgerungen und mehrstufige Gespräche.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview ist ein Vorschau-Modell mit Denkfähigkeit zur Bewertung und zum Testen.", "ernie-x1.1.description": "ERNIE X1.1 ist ein Vorschau-Denkmodell für Evaluierung und Tests.", - "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, entwickelt vom Seed-Team bei ByteDance, unterstützt Multi-Image-Bearbeitung und -Komposition. Es bietet verbesserte Subjektkonsistenz, präzise Befolgung von Anweisungen, Verständnis räumlicher Logik, ästhetischen Ausdruck, Poster-Layout und Logo-Design mit hochpräziser Text-Bild-Darstellung.", - "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, entwickelt von ByteDance Seed, unterstützt Text- und Bildeingaben für eine hochgradig steuerbare, qualitativ hochwertige Bildgenerierung aus Prompts.", + "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Text- und Bildinputs unterstützt und hochkontrollierbare, qualitativ hochwertige Bildgenerierung ermöglicht. Es erzeugt Bilder aus Textaufforderungen.", "fal-ai/flux-kontext/dev.description": "FLUX.1-Modell mit Fokus auf Bildbearbeitung, unterstützt Text- und Bildeingaben.", "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] akzeptiert Texte und Referenzbilder als Eingabe und ermöglicht gezielte lokale Bearbeitungen sowie komplexe globale Szenentransformationen.", "fal-ai/flux/krea.description": "Flux Krea [dev] ist ein Bildgenerierungsmodell mit ästhetischer Ausrichtung auf realistischere, natürliche Bilder.", @@ -500,8 +497,8 @@ "fal-ai/hunyuan-image/v3.description": "Ein leistungsstarkes natives multimodales Bildgenerierungsmodell.", "fal-ai/imagen4/preview.description": "Hochwertiges Bildgenerierungsmodell von Google.", "fal-ai/nano-banana.description": "Nano Banana ist das neueste, schnellste und effizienteste native multimodale Modell von Google. Es ermöglicht Bildgenerierung und -bearbeitung im Dialog.", - "fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen, präzise Textbearbeitung in Chinesisch/Englisch, Stilübertragungen, Drehungen und mehr unterstützt.", - "fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit starker chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.", + "fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und optische Bearbeitungen unterstützt, präzise chinesische und englische Texte bearbeitet und hochwertige Bearbeitungen wie Stilübertragungen und Objektrotation ermöglicht.", + "fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit beeindruckender chinesischer Textrendering und vielfältigen visuellen Stilen.", "flux-1-schnell.description": "Ein Text-zu-Bild-Modell mit 12 Milliarden Parametern von Black Forest Labs, das latente adversariale Diffusionsdistillation nutzt, um hochwertige Bilder in 1–4 Schritten zu erzeugen. Es konkurriert mit geschlossenen Alternativen und ist unter Apache-2.0 für persönliche, Forschungs- und kommerzielle Nutzung verfügbar.", "flux-dev.description": "FLUX.1 [dev] ist ein Modell mit offenen Gewichten für nicht-kommerzielle Nutzung. Es bietet nahezu professionelle Bildqualität und Befolgung von Anweisungen bei effizienterer Nutzung von Ressourcen im Vergleich zu Standardmodellen gleicher Größe.", "flux-kontext-max.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.", @@ -532,8 +529,6 @@ "gemini-2.0-flash-lite-001.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.", "gemini-2.0-flash-lite.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.", "gemini-2.0-flash.description": "Gemini 2.0 Flash bietet Next-Gen-Funktionen wie außergewöhnliche Geschwindigkeit, native Tool-Nutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens.", - "gemini-2.5-flash-image-preview.description": "Nano Banana ist das neueste, schnellste und effizienteste native multimodale Modell von Google und ermöglicht dialogbasierte Bildgenerierung und -bearbeitung.", - "gemini-2.5-flash-image-preview:image.description": "Nano Banana ist das neueste, schnellste und effizienteste native multimodale Modell von Google und ermöglicht dialogbasierte Bildgenerierung und -bearbeitung.", "gemini-2.5-flash-image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.", "gemini-2.5-flash-image:image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.", "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview ist Googles kleinstes und kosteneffizientestes Modell für großflächige Nutzung.", @@ -547,10 +542,10 @@ "gemini-2.5-pro.description": "Gemini 2.5 Pro ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.", "gemini-3-flash-preview.description": "Gemini 3 Flash ist das intelligenteste Modell, das auf Geschwindigkeit ausgelegt ist – es vereint modernste Intelligenz mit exzellenter Suchverankerung.", "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell, das auch multimodale Dialoge unterstützt.", - "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Modell zur Bildgenerierung und unterstützt auch multimodale Konversationen.", + "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell und unterstützt auch multimodale Chats.", "gemini-3-pro-preview.description": "Gemini 3 Pro ist Googles leistungsstärkstes Agenten- und Vibe-Coding-Modell. Es bietet reichhaltigere visuelle Inhalte und tiefere Interaktionen auf Basis modernster logischer Fähigkeiten.", "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) ist Googles schnellstes natives Bildgenerierungsmodell mit Denkunterstützung, konversationaler Bildgenerierung und -bearbeitung.", - "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) liefert Bildqualität auf Pro-Niveau mit Flash-Geschwindigkeit und unterstützt multimodale Chats.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) ist Googles schnellstes natives Bildgenerierungsmodell mit Denkunterstützung, konversationaler Bildgenerierung und -bearbeitung.", "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview verbessert Gemini 3 Pro mit erweiterten Fähigkeiten für logisches Denken und unterstützt mittleres Denklevel.", "gemini-flash-latest.description": "Neueste Version von Gemini Flash", "gemini-flash-lite-latest.description": "Neueste Version von Gemini Flash-Lite", @@ -692,7 +687,6 @@ "gpt-oss:120b.description": "GPT-OSS 120B ist OpenAIs großes Open-Source-LLM mit MXFP4-Quantisierung und als Flaggschiffmodell positioniert. Es erfordert Multi-GPU- oder High-End-Workstation-Umgebungen und bietet exzellente Leistung bei komplexem Denken, Codegenerierung und mehrsprachiger Verarbeitung mit fortschrittlichem Funktionsaufruf und Tool-Integration.", "gpt-oss:20b.description": "GPT-OSS 20B ist ein Open-Source-LLM von OpenAI mit MXFP4-Quantisierung, geeignet für High-End-Consumer-GPUs oder Apple Silicon Macs. Es überzeugt bei Dialoggenerierung, Programmierung und Denkaufgaben und unterstützt Funktionsaufrufe und Tool-Nutzung.", "gpt-realtime.description": "Ein allgemeines Echtzeitmodell mit Unterstützung für Text- und Audio-Ein-/Ausgabe sowie Bildeingabe.", - "grok-2-image-1212.description": "Unser neuestes Bildgenerierungsmodell erstellt lebendige, realistische Bilder aus Eingabeaufforderungen und eignet sich hervorragend für Marketing, soziale Medien und Unterhaltungsanwendungen.", "grok-2-vision-1212.description": "Verbesserte Genauigkeit, Befolgung von Anweisungen und mehrsprachige Fähigkeiten.", "grok-3-mini.description": "Ein leichtgewichtiges Modell, das vor der Antwort nachdenkt. Es ist schnell und intelligent bei logischen Aufgaben, die kein tiefes Fachwissen erfordern, mit Zugriff auf rohe Denkspuren.", "grok-3.description": "Ein Flaggschiffmodell, das sich für Unternehmensanwendungen wie Datenextraktion, Programmierung und Zusammenfassungen eignet, mit tiefem Fachwissen in Finanzen, Gesundheitswesen, Recht und Wissenschaft.", @@ -1141,7 +1135,11 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking ist ein multimodales Chain-of-Thought-Modell für detailliertes visuelles Denken.", "qwen3-vl-flash.description": "Qwen3 VL Flash: leichtgewichtige, hochschnelle Denkversion für latenzempfindliche oder hochvolumige Anfragen.", "qwen3-vl-plus.description": "Qwen VL ist ein Textgenerierungsmodell mit Bildverständnis. Es kann OCR durchführen sowie zusammenfassen und schlussfolgern, z. B. Attribute aus Produktfotos extrahieren oder Probleme aus Bildern lösen.", + "qwen3.5-122b-a10b.description": "Unterstützt Text-, Bild- und Videoeingaben. Für reine Textaufgaben ist die Leistung vergleichbar mit Qwen3 Max, bietet jedoch höhere Effizienz und geringere Kosten. In multimodalen Fähigkeiten liefert es signifikante Verbesserungen gegenüber der Qwen3 VL-Serie.", + "qwen3.5-27b.description": "Unterstützt Text-, Bild- und Videoeingaben. Für reine Textaufgaben ist die Leistung vergleichbar mit Qwen3 Max, bietet jedoch höhere Effizienz und geringere Kosten. In multimodalen Fähigkeiten liefert es signifikante Verbesserungen gegenüber der Qwen3 VL-Serie.", + "qwen3.5-35b-a3b.description": "Unterstützt Text-, Bild- und Videoeingaben. Für reine Textaufgaben ist die Leistung vergleichbar mit Qwen3 Max, bietet jedoch höhere Effizienz und geringere Kosten. In multimodalen Fähigkeiten liefert es signifikante Verbesserungen gegenüber der Qwen3 VL-Serie.", "qwen3.5-397b-a17b.description": "Unterstützt Text-, Bild- und Videoeingaben. Für reine Textaufgaben ist die Leistung vergleichbar mit Qwen3 Max, bietet jedoch höhere Effizienz und niedrigere Kosten. In multimodalen Fähigkeiten bietet es signifikante Verbesserungen gegenüber der Qwen3 VL-Serie.", + "qwen3.5-flash.description": "Das schnellste und kostengünstigste Qwen-Modell, ideal für einfache Aufgaben.", "qwen3.5-plus.description": "Qwen3.5 Plus unterstützt Text-, Bild- und Videoeingaben. Seine Leistung bei reinen Textaufgaben ist vergleichbar mit Qwen3 Max, mit besserer Leistung und geringeren Kosten. Seine multimodalen Fähigkeiten sind im Vergleich zur Qwen3 VL-Serie erheblich verbessert.", "qwen3.5:397b.description": "Qwen3.5 ist ein einheitliches Vision-Language-Grundlagenmodell mit einer hybriden Architektur (Mixture-of-Experts + lineare Aufmerksamkeit), das starke multimodale Argumentations-, Programmier- und Langkontextfähigkeiten mit einem 256K-Kontextfenster bietet.", "qwen3.description": "Qwen3 ist Alibabas nächste Generation eines großen Sprachmodells mit starker Leistung in vielfältigen Anwendungsfällen.", @@ -1151,8 +1149,6 @@ "qwq.description": "QwQ ist ein Schlussfolgerungsmodell aus der Qwen-Familie. Im Vergleich zu standardmäßig instruktionstunierten Modellen bietet es überlegene Denk- und Schlussfolgerungsfähigkeiten, die die Leistung bei nachgelagerten Aufgaben deutlich verbessern – insbesondere bei schwierigen Problemen. QwQ-32B ist ein mittelgroßes Modell, das mit führenden Schlussfolgerungsmodellen wie DeepSeek-R1 und o1-mini mithalten kann.", "qwq_32b.description": "Mittelgroßes Schlussfolgerungsmodell aus der Qwen-Familie. Im Vergleich zu standardmäßig instruktionstunierten Modellen steigern QwQs Denk- und Schlussfolgerungsfähigkeiten die Leistung bei nachgelagerten Aufgaben deutlich – insbesondere bei schwierigen Problemen.", "r1-1776.description": "R1-1776 ist eine nachtrainierte Variante von DeepSeek R1, die darauf ausgelegt ist, unzensierte, objektive und faktenbasierte Informationen bereitzustellen.", - "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro von ByteDance unterstützt Text-zu-Video, Bild-zu-Video (erstes Bild, erstes+letztes Bild) sowie Audiogenerierung synchronisiert mit visuellen Inhalten.", - "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite von BytePlus bietet webgestützte Generierung für Echtzeitinformationen, verbesserte Interpretation komplexer Eingaben und verbesserte Konsistenz bei Referenzen für professionelle visuelle Erstellung.", "solar-mini-ja.description": "Solar Mini (Ja) erweitert Solar Mini mit einem Fokus auf Japanisch und behält dabei eine effiziente und starke Leistung in Englisch und Koreanisch bei.", "solar-mini.description": "Solar Mini ist ein kompaktes LLM, das GPT-3.5 übertrifft. Es bietet starke mehrsprachige Fähigkeiten in Englisch und Koreanisch und ist eine effiziente Lösung mit kleinem Ressourcenbedarf.", "solar-pro.description": "Solar Pro ist ein hochintelligentes LLM von Upstage, das auf Befolgen von Anweisungen auf einer einzelnen GPU ausgelegt ist und IFEval-Werte über 80 erreicht. Derzeit wird Englisch unterstützt; die vollständige Veröffentlichung mit erweitertem Sprachsupport und längeren Kontexten war für November 2024 geplant.", diff --git a/locales/de-DE/providers.json b/locales/de-DE/providers.json index f144b294d3..3fd56e67e9 100644 --- a/locales/de-DE/providers.json +++ b/locales/de-DE/providers.json @@ -30,7 +30,6 @@ "internlm.description": "Eine Open-Source-Organisation für Forschung und Tools rund um große Modelle – mit einer effizienten, benutzerfreundlichen Plattform für den Zugang zu modernsten Modellen und Algorithmen.", "jina.description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Der Such-Stack umfasst Vektormodelle, Reranker und kleine Sprachmodelle für zuverlässige, hochwertige generative und multimodale Suchanwendungen.", "lmstudio.description": "LM Studio ist eine Desktop-App zur Entwicklung und zum Experimentieren mit LLMs auf dem eigenen Computer.", - "lobehub.description": "LobeHub Cloud verwendet offizielle APIs, um auf KI-Modelle zuzugreifen, und misst die Nutzung anhand von Credits, die an Modell-Token gebunden sind.", "minimax.description": "MiniMax wurde 2021 gegründet und entwickelt allgemeine KI mit multimodalen Foundation-Modellen, darunter Textmodelle mit Billionen Parametern, Sprach- und Bildmodelle sowie Apps wie Hailuo AI.", "mistral.description": "Mistral bietet fortschrittliche allgemeine, spezialisierte und Forschungsmodelle für komplexes Denken, mehrsprachige Aufgaben und Codegenerierung – inklusive Funktionsaufrufen für individuelle Integrationen.", "modelscope.description": "ModelScope ist die Model-as-a-Service-Plattform von Alibaba Cloud mit einer breiten Auswahl an KI-Modellen und Inferenzdiensten.", diff --git a/locales/en-US/common.json b/locales/en-US/common.json index ecdb647ba7..70ed841a3a 100644 --- a/locales/en-US/common.json +++ b/locales/en-US/common.json @@ -209,7 +209,6 @@ "delete": "Delete", "document": "User Manual", "download": "Download", - "downloadClient": "Download Client", "duplicate": "Duplicate", "edit": "Edit", "errors.invalidFileFormat": "Invalid file format", @@ -256,6 +255,7 @@ "footer.star.title": "Star us on GitHub", "footer.title": "Like Our Product?", "fullscreen": "Full Screen Mode", + "getDesktopApp": "Get Desktop App", "historyRange": "History Range", "home.suggestQuestions": "Try these examples", "import": "Import", diff --git a/locales/en-US/models.json b/locales/en-US/models.json index b1640b3a20..ae937404a2 100644 --- a/locales/en-US/models.json +++ b/locales/en-US/models.json @@ -77,10 +77,8 @@ "MiniMax-M1.description": "A new in-house reasoning model with 80K chain-of-thought and 1M input, delivering performance comparable to top global models.", "MiniMax-M2-Stable.description": "Built for efficient coding and agent workflows, with higher concurrency for commercial use.", "MiniMax-M2.1-Lightning.description": "Powerful multilingual programming capabilities, comprehensively upgraded programming experience. Faster and more efficient.", - "MiniMax-M2.1-highspeed.description": "Powerful multilingual programming capabilities with faster and more efficient inference.", "MiniMax-M2.1.description": "MiniMax-M2.1 is a flagship open-source large model from MiniMax, focusing on solving complex real-world tasks. Its core strengths are multi-language programming capabilities and the ability to solve complex tasks as an Agent.", "MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Same performance, faster and more agile (approx. 100 tps).", - "MiniMax-M2.5-highspeed.description": "Same performance as M2.5 with significantly faster inference.", "MiniMax-M2.5.description": "MiniMax-M2.5 is a flagship open-source large model from MiniMax, focusing on solving complex real-world tasks. Its core strengths are multi-language programming capabilities and the ability to solve complex tasks as an Agent.", "MiniMax-M2.description": "Built specifically for efficient coding and Agent workflows", "MiniMax-Text-01.description": "MiniMax-01 introduces large-scale linear attention beyond classic Transformers, with 456B parameters and 45.9B activated per pass. It achieves top-tier performance and supports up to 4M tokens of context (32× GPT-4o, 20× Claude-3.5-Sonnet).", @@ -283,9 +281,9 @@ "chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time. It combines strong language understanding and generation for large-scale use cases like customer support, education, and technical assistance.", "claude-2.0.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.", "claude-2.1.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.", - "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic's fastest next-gen model, improving across skills and surpassing the previous flagship Claude 3 Opus on many benchmarks.", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic’s fastest next-gen model. Compared to Claude 3 Haiku, it improves across skills and surpasses the prior largest model Claude 3 Opus on many intelligence benchmarks.", "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku delivers fast responses for lightweight tasks.", - "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is Anthropic's most intelligent model and the first hybrid reasoning model on the market, supporting near-instant responses or extended thinking with fine-grained control.", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is Anthropic’s most intelligent model and the first hybrid reasoning model on the market. It can produce near-instant responses or extended step-by-step reasoning that users can see. Sonnet is especially strong at coding, data science, vision, and agent tasks.", "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.", "claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropic’s fastest and most compact model, designed for near-instant responses with fast, accurate performance.", "claude-3-opus-20240229.description": "Claude 3 Opus is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.", @@ -293,17 +291,17 @@ "claude-3.5-sonnet.description": "Claude 3.5 Sonnet excels at coding, writing, and complex reasoning.", "claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet with extended thinking for complex reasoning tasks.", "claude-3.7-sonnet.description": "Claude 3.7 Sonnet is an upgraded version with extended context and capabilities.", - "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic's fastest and most intelligent Haiku model, with lightning speed and extended thinking.", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic’s fastest and smartest Haiku model, with lightning speed and extended reasoning.", "claude-haiku-4.5.description": "Claude Haiku 4.5 is a fast and efficient model for various tasks.", "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.", - "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic's latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.", - "claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic's most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.", + "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic’s latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.", + "claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic’s most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.", "claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropic’s flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.", - "claude-opus-4-6.description": "Claude Opus 4.6 is Anthropic's most intelligent model for building agents and coding.", + "claude-opus-4-6.description": "Claude Opus 4.6 is Anthropic’s most intelligent model for building agents and coding.", "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.", - "claude-sonnet-4-20250514.description": "Claude Sonnet 4 is Anthropic's most intelligent model to date, offering near-instant responses or extended step-by-step thinking with fine-grained control for API users.", - "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic's most intelligent model to date.", - "claude-sonnet-4-6.description": "Claude Sonnet 4.6 is Anthropic's best combination of speed and intelligence.", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step thinking with visible process.", + "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic’s most intelligent model to date.", + "claude-sonnet-4-6.description": "Claude Sonnet 4.6 is Anthropic’s best combination of speed and intelligence.", "claude-sonnet-4.description": "Claude Sonnet 4 is the latest generation with improved performance across all tasks.", "codegeex-4.description": "CodeGeeX-4 is a powerful AI coding assistant that supports multilingual Q&A and code completion to boost developer productivity.", "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is a multilingual code generation model supporting code completion and generation, code interpreter, web search, function calling, and repo-level code Q&A, covering a wide range of software development scenarios. It is a top-tier code model under 10B parameters.", @@ -373,7 +371,7 @@ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.", "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought capabilities.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is a MoE vision-language model based on DeepSeekMoE-27B with sparse activation, achieving strong performance with only 4.5B active parameters. It excels at visual QA, OCR, document/table/chart understanding, and visual grounding.", - "deepseek-chat.description": "DeepSeek V3.2 balances reasoning and output length for daily QA and agent tasks. Public benchmarks reach GPT-5 levels, and it is the first to integrate thinking into tool use, leading open-source agent evaluations.", + "deepseek-chat.description": "A new open-source model combining general and code abilities. It preserves the chat model’s general dialogue and the coder model’s strong coding, with better preference alignment. DeepSeek-V2.5 also improves writing and instruction following.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.", "deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.", "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.", @@ -396,7 +394,7 @@ "deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.", "deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.", "deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.", - "deepseek-reasoner.description": "DeepSeek V3.2 Thinking is a deep reasoning model that generates chain-of-thought before outputs for higher accuracy, with top competition results and reasoning comparable to Gemini-3.0-Pro.", + "deepseek-reasoner.description": "DeepSeek V3.2 thinking mode outputs a chain-of-thought before the final answer to improve accuracy.", "deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.", "deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s code-focused model with strong code generation.", "deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.", @@ -491,8 +489,7 @@ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.", "ernie-x1.1.description": "ERNIE X1.1 is a thinking-model preview for evaluation and testing.", - "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, built by ByteDance Seed team, supports multi-image editing and composition. Features enhanced subject consistency, precise instruction following, spatial logic understanding, aesthetic expression, poster layout and logo design with high-precision text-image rendering.", - "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, built by ByteDance Seed, supports text and image inputs for highly controllable, high-quality image generation from prompts.", + "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.", "fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.", "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.", "fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.", @@ -500,8 +497,8 @@ "fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.", "fal-ai/imagen4/preview.description": "High-quality image generation model from Google.", "fal-ai/nano-banana.description": "Nano Banana is Google’s newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.", - "fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team, supporting semantic and appearance edits, precise Chinese/English text editing, style transfer, rotation, and more.", - "fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with strong Chinese text rendering and diverse visual styles.", + "fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team that supports semantic and appearance edits, precisely edits Chinese and English text, and enables high-quality edits such as style transfer and object rotation.", + "fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with impressive Chinese text rendering and diverse visual styles.", "flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.", "flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.", "flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.", @@ -532,8 +529,6 @@ "gemini-2.0-flash-lite-001.description": "A Gemini 2.0 Flash variant optimized for cost efficiency and low latency.", "gemini-2.0-flash-lite.description": "A Gemini 2.0 Flash variant optimized for cost efficiency and low latency.", "gemini-2.0-flash.description": "Gemini 2.0 Flash delivers next-gen features including exceptional speed, native tool use, multimodal generation, and a 1M-token context window.", - "gemini-2.5-flash-image-preview.description": "Nano Banana is Google's newest, fastest, and most efficient native multimodal model, enabling conversational image generation and editing.", - "gemini-2.5-flash-image-preview:image.description": "Nano Banana is Google's newest, fastest, and most efficient native multimodal model, enabling conversational image generation and editing.", "gemini-2.5-flash-image.description": "Nano Banana is Google’s newest, fastest, and most efficient native multimodal model, enabling conversational image generation and editing.", "gemini-2.5-flash-image:image.description": "Nano Banana is Google’s newest, fastest, and most efficient native multimodal model, enabling conversational image generation and editing.", "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview is Google’s smallest, best-value model, designed for large-scale use.", @@ -547,10 +542,10 @@ "gemini-2.5-pro.description": "Gemini 2.5 Pro is Google’s most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.", "gemini-3-flash-preview.description": "Gemini 3 Flash is the smartest model built for speed, combining cutting-edge intelligence with excellent search grounding.", "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model that also supports multimodal dialogue.", - "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model and also supports multimodal chat.", + "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google’s image generation model and also supports multimodal chat.", "gemini-3-pro-preview.description": "Gemini 3 Pro is Google’s most powerful agent and vibe-coding model, delivering richer visuals and deeper interaction on top of state-of-the-art reasoning.", "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) is Google's fastest native image generation model with thinking support, conversational image generation and editing.", - "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) delivers Pro-level image quality at Flash speed with multimodal chat support.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) is Google's fastest native image generation model with thinking support, conversational image generation and editing.", "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview improves on Gemini 3 Pro with enhanced reasoning capabilities and adds medium thinking level support.", "gemini-flash-latest.description": "Latest release of Gemini Flash", "gemini-flash-lite-latest.description": "Latest release of Gemini Flash-Lite", @@ -692,7 +687,6 @@ "gpt-oss:120b.description": "GPT-OSS 120B is OpenAI’s large open-source LLM using MXFP4 quantization and positioned as a flagship model. It requires multi-GPU or high-end workstation environments and delivers excellent performance in complex reasoning, code generation, and multilingual processing, with advanced function calling and tool integration.", "gpt-oss:20b.description": "GPT-OSS 20B is an open-source LLM from OpenAI using MXFP4 quantization, suitable for high-end consumer GPUs or Apple Silicon Macs. It performs well in dialogue generation, coding, and reasoning tasks, supporting function calling and tool use.", "gpt-realtime.description": "A general real-time model supporting real-time text and audio I/O, plus image input.", - "grok-2-image-1212.description": "Our latest image generation model creates vivid, realistic images from prompts and excels in marketing, social media, and entertainment use cases.", "grok-2-vision-1212.description": "Improved accuracy, instruction following, and multilingual capability.", "grok-3-mini.description": "A lightweight model that thinks before responding. It’s fast and smart for logic tasks that don’t require deep domain knowledge, with access to raw reasoning traces.", "grok-3.description": "A flagship model that excels at enterprise use cases like data extraction, coding, and summarization, with deep domain knowledge in finance, healthcare, law, and science.", @@ -1141,7 +1135,11 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking is a multimodal chain-of-thought model for detailed visual reasoning.", "qwen3-vl-flash.description": "Qwen3 VL Flash: lightweight, high-speed reasoning version for latency-sensitive or high-volume requests.", "qwen3-vl-plus.description": "Qwen VL is a text generation model with vision understanding. It can do OCR and also summarize and reason, such as extracting attributes from product photos or solving problems from images.", + "qwen3.5-122b-a10b.description": "Supports text, image, and video inputs. For text-only tasks, its performance is comparable to Qwen3 Max, offering higher efficiency and lower cost. In multimodal capabilities, it delivers significant improvements over the Qwen3 VL series.", + "qwen3.5-27b.description": "Supports text, image, and video inputs. For text-only tasks, its performance is comparable to Qwen3 Max, offering higher efficiency and lower cost. In multimodal capabilities, it delivers significant improvements over the Qwen3 VL series.", + "qwen3.5-35b-a3b.description": "Supports text, image, and video inputs. For text-only tasks, its performance is comparable to Qwen3 Max, offering higher efficiency and lower cost. In multimodal capabilities, it delivers significant improvements over the Qwen3 VL series.", "qwen3.5-397b-a17b.description": "Supports text, image, and video inputs. For text-only tasks, its performance is comparable to Qwen3 Max, offering higher efficiency and lower cost. In multimodal capabilities, it delivers significant improvements over the Qwen3 VL series.", + "qwen3.5-flash.description": "Fastest and lowest-cost Qwen model, ideal for simple tasks.", "qwen3.5-plus.description": "Qwen3.5 Plus supports text, image, and video input. Its performance on pure text tasks is comparable to Qwen3 Max, with better performance and lower cost. Its multimodal capabilities are significantly improved compared to the Qwen3 VL series.", "qwen3.5:397b.description": "Qwen3.5 is a unified vision–language foundation model with a hybrid architecture (Mixture-of-Experts + linear attention), offering strong multimodal reasoning, coding, and long-context capabilities with a 256K context window.", "qwen3.description": "Qwen3 is Alibaba’s next-generation large language model with strong performance across diverse use cases.", @@ -1151,8 +1149,6 @@ "qwq.description": "QwQ is a reasoning model in the Qwen family. Compared with standard instruction-tuned models, it brings thinking and reasoning abilities that significantly improve downstream performance, especially on hard problems. QwQ-32B is a mid-sized reasoning model that competes well with top reasoning models like DeepSeek-R1 and o1-mini.", "qwq_32b.description": "Mid-sized reasoning model in the Qwen family. Compared with standard instruction-tuned models, QwQ’s thinking and reasoning abilities significantly boost downstream performance, especially on hard problems.", "r1-1776.description": "R1-1776 is a post-trained variant of DeepSeek R1 designed to provide uncensored, unbiased factual information.", - "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro by ByteDance supports text-to-video, image-to-video (first frame, first+last frame), and audio generation synchronized with visuals.", - "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite by BytePlus features web-retrieval-augmented generation for real-time information, enhanced complex prompt interpretation, and improved reference consistency for professional visual creation.", "solar-mini-ja.description": "Solar Mini (Ja) extends Solar Mini with a focus on Japanese while maintaining efficient, strong performance in English and Korean.", "solar-mini.description": "Solar Mini is a compact LLM that outperforms GPT-3.5, with strong multilingual capability supporting English and Korean, offering an efficient small-footprint solution.", "solar-pro.description": "Solar Pro is a high-intelligence LLM from Upstage, focused on instruction following on a single GPU, with IFEval scores above 80. It currently supports English; the full release was planned for November 2024 with expanded language support and longer context.", diff --git a/locales/en-US/providers.json b/locales/en-US/providers.json index 83d10ecfd9..4f3ca829c0 100644 --- a/locales/en-US/providers.json +++ b/locales/en-US/providers.json @@ -30,7 +30,6 @@ "internlm.description": "An open-source organization focused on large-model research and tooling, providing an efficient, easy-to-use platform that makes cutting-edge models and algorithms accessible.", "jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.", "lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.", - "lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.", "minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.", "mistral.description": "Mistral offers advanced general, specialized, and research models for complex reasoning, multilingual tasks, and code generation, with function-calling for custom integrations.", "modelscope.description": "ModelScope is Alibaba Cloud’s model-as-a-service platform, offering a wide range of AI models and inference services.", diff --git a/locales/es-ES/agent.json b/locales/es-ES/agent.json new file mode 100644 index 0000000000..9467385c32 --- /dev/null +++ b/locales/es-ES/agent.json @@ -0,0 +1,34 @@ +{ + "integration.applicationId": "ID de la Aplicación / Nombre de Usuario del Bot", + "integration.applicationIdPlaceholder": "p. ej. 1234567890", + "integration.botToken": "Token del Bot / Clave API", + "integration.botTokenEncryptedHint": "El token será encriptado y almacenado de forma segura.", + "integration.botTokenHowToGet": "¿Cómo obtenerlo?", + "integration.botTokenPlaceholderExisting": "El token está oculto por seguridad", + "integration.botTokenPlaceholderNew": "Pega tu token de bot aquí", + "integration.connectionConfig": "Configuración de Conexión", + "integration.copied": "Copiado al portapapeles", + "integration.copy": "Copiar", + "integration.deleteConfirm": "¿Estás seguro de que deseas eliminar esta integración?", + "integration.disabled": "Deshabilitado", + "integration.discord.description": "Conecta este asistente al servidor de Discord para chat en canales y mensajes directos.", + "integration.documentation": "Documentación", + "integration.enabled": "Habilitado", + "integration.endpointUrl": "URL del Endpoint de Interacción", + "integration.endpointUrlHint": "Por favor, copia esta URL y pégala en el campo \"URL del Endpoint de Interacción\" en el Portal de Desarrolladores de {{name}}.", + "integration.platforms": "Plataformas", + "integration.publicKey": "Clave Pública", + "integration.publicKeyPlaceholder": "Requerida para la verificación de interacción", + "integration.removeFailed": "No se pudo eliminar la integración", + "integration.removeIntegration": "Eliminar Integración", + "integration.removed": "Integración eliminada", + "integration.save": "Guardar Configuración", + "integration.saveFailed": "No se pudo guardar la configuración", + "integration.saveFirstWarning": "Por favor, guarda la configuración primero", + "integration.saved": "Configuración guardada exitosamente", + "integration.testConnection": "Probar Conexión", + "integration.testFailed": "La prueba de conexión falló", + "integration.testSuccess": "La prueba de conexión fue exitosa", + "integration.updateFailed": "No se pudo actualizar el estado", + "integration.validationError": "Por favor, completa el ID de la Aplicación y el Token" +} diff --git a/locales/es-ES/chat.json b/locales/es-ES/chat.json index 09661467e5..f592dacbcb 100644 --- a/locales/es-ES/chat.json +++ b/locales/es-ES/chat.json @@ -336,6 +336,7 @@ "supervisor.todoList.allComplete": "Todas las tareas completadas", "supervisor.todoList.title": "Tareas completadas", "tab.groupProfile": "Perfil del grupo", + "tab.integration": "Integración", "tab.profile": "Perfil del agente", "tab.search": "Buscar", "task.activity.calling": "Llamando habilidad...", diff --git a/locales/es-ES/common.json b/locales/es-ES/common.json index fa142f608b..4f876614ad 100644 --- a/locales/es-ES/common.json +++ b/locales/es-ES/common.json @@ -209,7 +209,6 @@ "delete": "Eliminar", "document": "Manual de usuario", "download": "Descargar", - "downloadClient": "Descargar cliente", "duplicate": "Duplicar", "edit": "Editar", "errors.invalidFileFormat": "Formato de archivo no válido", @@ -256,6 +255,7 @@ "footer.star.title": "Danos una estrella en GitHub", "footer.title": "¿Te gusta nuestro producto?", "fullscreen": "Modo de pantalla completa", + "getDesktopApp": "Obtener la aplicación de escritorio", "historyRange": "Rango de historial", "home.suggestQuestions": "Prueba con estos ejemplos", "import": "Importar", diff --git a/locales/es-ES/models.json b/locales/es-ES/models.json index 4d99c7d919..d4d025aabf 100644 --- a/locales/es-ES/models.json +++ b/locales/es-ES/models.json @@ -77,10 +77,8 @@ "MiniMax-M1.description": "Nuevo modelo de razonamiento interno con 80K de cadena de pensamiento y 1M de entrada, con rendimiento comparable a los mejores modelos globales.", "MiniMax-M2-Stable.description": "Diseñado para codificación eficiente y flujos de trabajo de agentes, con mayor concurrencia para uso comercial.", "MiniMax-M2.1-Lightning.description": "Potentes capacidades de programación multilingüe, experiencia de desarrollo completamente mejorada. Más rápido y eficiente.", - "MiniMax-M2.1-highspeed.description": "Potentes capacidades de programación multilingüe con inferencia más rápida y eficiente.", "MiniMax-M2.1.description": "MiniMax-M2.1 es un modelo insignia de código abierto de MiniMax, enfocado en resolver tareas complejas del mundo real. Sus principales fortalezas son sus capacidades de programación multilingüe y su habilidad para resolver tareas complejas como un Agente.", "MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Misma rendimiento, más rápido y ágil (aproximadamente 100 tps).", - "MiniMax-M2.5-highspeed.description": "Misma rendimiento que M2.5 con una inferencia significativamente más rápida.", "MiniMax-M2.5.description": "MiniMax-M2.5 es un modelo insignia de código abierto de gran tamaño de MiniMax, enfocado en resolver tareas complejas del mundo real. Sus principales fortalezas son las capacidades de programación multilingüe y la habilidad para resolver tareas complejas como un Agente.", "MiniMax-M2.description": "Diseñado específicamente para una codificación eficiente y flujos de trabajo con agentes", "MiniMax-Text-01.description": "MiniMax-01 introduce atención lineal a gran escala más allá de los Transformers clásicos, con 456B de parámetros y 45.9B activados por paso. Logra rendimiento de primer nivel y admite hasta 4M tokens de contexto (32× GPT-4o, 20× Claude-3.5-Sonnet).", @@ -283,9 +281,9 @@ "chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real. Combina una sólida comprensión y generación de lenguaje para casos de uso a gran escala como soporte al cliente, educación y asistencia técnica.", "claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.", "claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.", - "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic, con mejoras en múltiples habilidades y superando al anterior modelo insignia Claude 3 Opus en muchos indicadores.", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de próxima generación más rápido de Anthropic. En comparación con Claude 3 Haiku, mejora en habilidades y supera al modelo anterior más grande, Claude 3 Opus, en muchos estándares de inteligencia.", "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku ofrece respuestas rápidas para tareas ligeras.", - "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado, que permite respuestas casi instantáneas o pensamiento prolongado con control detallado.", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido en el mercado. Puede generar respuestas casi instantáneas o razonamientos detallados paso a paso que los usuarios pueden observar. Sonnet es especialmente fuerte en programación, ciencia de datos, visión y tareas de agentes.", "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.", "claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.", "claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.", @@ -293,15 +291,15 @@ "claude-3.5-sonnet.description": "Claude 3.5 Sonnet destaca en programación, redacción y razonamiento complejo.", "claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet con pensamiento extendido para tareas de razonamiento complejo.", "claude-3.7-sonnet.description": "Claude 3.7 Sonnet es una versión mejorada con mayor contexto y capacidades ampliadas.", - "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y capacidad de razonamiento extendido.", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y razonamiento extendido.", "claude-haiku-4.5.description": "Claude Haiku 4.5 es un modelo rápido y eficiente para diversas tareas.", "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.", - "claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y avanzado de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.", - "claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, sobresaliendo en rendimiento, inteligencia, fluidez y comprensión.", + "claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y capaz de Anthropic para tareas altamente complejas, destacándose en rendimiento, inteligencia, fluidez y comprensión.", + "claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más poderoso de Anthropic para tareas altamente complejas, sobresaliendo en rendimiento, inteligencia, fluidez y comprensión.", "claude-opus-4-5-20251101.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, combinando inteligencia excepcional con rendimiento escalable, ideal para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.", - "claude-opus-4-6.description": "Claude Opus 4.6 es el modelo más inteligente de Anthropic para la creación de agentes y programación.", + "claude-opus-4-6.description": "Claude Opus 4.6 es el modelo más inteligente de Anthropic para construir agentes y programar.", "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.", - "claude-sonnet-4-20250514.description": "Claude Sonnet 4 es el modelo más inteligente de Anthropic hasta la fecha, ofreciendo respuestas casi instantáneas o razonamiento paso a paso con control detallado para usuarios de API.", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4 puede generar respuestas casi instantáneas o razonamientos detallados paso a paso con un proceso visible.", "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.", "claude-sonnet-4-6.description": "Claude Sonnet 4.6 es la mejor combinación de velocidad e inteligencia de Anthropic.", "claude-sonnet-4.description": "Claude Sonnet 4 es la última generación con un rendimiento mejorado en todas las tareas.", @@ -373,7 +371,7 @@ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.", "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 es un modelo de razonamiento de próxima generación con capacidades mejoradas de razonamiento complejo y cadenas de pensamiento.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 es un modelo visión-lenguaje MoE basado en DeepSeekMoE-27B con activación dispersa, logrando un alto rendimiento con solo 4.5B de parámetros activos. Destaca en preguntas visuales, OCR, comprensión de documentos/tablas/gráficos y anclaje visual.", - "deepseek-chat.description": "DeepSeek V3.2 equilibra razonamiento y longitud de salida para tareas diarias de preguntas y respuestas y agentes. En benchmarks públicos alcanza niveles comparables a GPT-5, siendo el primero en integrar razonamiento en el uso de herramientas, liderando evaluaciones de agentes de código abierto.", + "deepseek-chat.description": "Un nuevo modelo de código abierto que combina habilidades generales y de programación. Preserva el diálogo general del modelo de chat y la sólida capacidad de programación del modelo de codificación, con mejor alineación de preferencias. DeepSeek-V2.5 también mejora la escritura y el seguimiento de instrucciones.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para código entrenado con 2T de tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.", "deepseek-coder-v2.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.", "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.", @@ -396,7 +394,7 @@ "deepseek-r1-fast-online.description": "Versión completa rápida de DeepSeek R1 con búsqueda web en tiempo real, combinando capacidad a escala 671B y respuesta ágil.", "deepseek-r1-online.description": "Versión completa de DeepSeek R1 con 671B de parámetros y búsqueda web en tiempo real, ofreciendo mejor comprensión y generación.", "deepseek-r1.description": "DeepSeek-R1 utiliza datos de arranque en frío antes del aprendizaje por refuerzo y tiene un rendimiento comparable a OpenAI-o1 en matemáticas, programación y razonamiento.", - "deepseek-reasoner.description": "DeepSeek V3.2 Thinking es un modelo de razonamiento profundo que genera cadenas de pensamiento antes de las respuestas para mayor precisión, con resultados destacados en competencias y razonamiento comparable a Gemini-3.0-Pro.", + "deepseek-reasoner.description": "El modo de razonamiento DeepSeek V3.2 genera una cadena de pensamiento antes de la respuesta final para mejorar la precisión.", "deepseek-v2.description": "DeepSeek V2 es un modelo MoE eficiente para procesamiento rentable.", "deepseek-v2:236b.description": "DeepSeek V2 236B es el modelo de DeepSeek centrado en código con fuerte generación de código.", "deepseek-v3-0324.description": "DeepSeek-V3-0324 es un modelo MoE con 671 mil millones de parámetros, con fortalezas destacadas en programación, capacidad técnica, comprensión de contexto y manejo de textos largos.", @@ -491,8 +489,7 @@ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y chat de múltiples turnos.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.", "ernie-x1.1.description": "ERNIE X1.1 es un modelo de pensamiento en vista previa para evaluación y pruebas.", - "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, desarrollado por el equipo Seed de ByteDance, permite edición y composición de múltiples imágenes. Ofrece mayor coherencia de sujetos, seguimiento preciso de instrucciones, comprensión de lógica espacial, expresión estética, diseño de carteles y logotipos con renderizado texto-imagen de alta precisión.", - "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desarrollado por ByteDance Seed, admite entradas de texto e imagen para una generación de imágenes altamente controlable y de alta calidad a partir de indicaciones.", + "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed, que admite entradas de texto e imagen con generación de imágenes altamente controlable y de alta calidad. Genera imágenes a partir de indicaciones de texto.", "fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 centrado en la edición de imágenes, compatible con entradas de texto e imagen.", "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] acepta texto e imágenes de referencia como entrada, permitiendo ediciones locales dirigidas y transformaciones globales complejas de escenas.", "fal-ai/flux/krea.description": "Flux Krea [dev] es un modelo de generación de imágenes con una inclinación estética hacia imágenes más realistas y naturales.", @@ -500,8 +497,8 @@ "fal-ai/hunyuan-image/v3.description": "Un potente modelo nativo multimodal de generación de imágenes.", "fal-ai/imagen4/preview.description": "Modelo de generación de imágenes de alta calidad de Google.", "fal-ai/nano-banana.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes mediante conversación.", - "fal-ai/qwen-image-edit.description": "Un modelo profesional de edición de imágenes del equipo Qwen, que permite ediciones semánticas y de apariencia, edición precisa de texto en chino/inglés, transferencia de estilo, rotación y más.", - "fal-ai/qwen-image.description": "Un potente modelo de generación de imágenes del equipo Qwen con excelente renderizado de texto en chino y estilos visuales diversos.", + "fal-ai/qwen-image-edit.description": "Un modelo profesional de edición de imágenes del equipo Qwen que admite ediciones semánticas y de apariencia, edita texto en chino e inglés con precisión y permite ediciones de alta calidad como transferencia de estilo y rotación de objetos.", + "fal-ai/qwen-image.description": "Un modelo poderoso de generación de imágenes del equipo Qwen con impresionante renderizado de texto en chino y estilos visuales diversos.", "flux-1-schnell.description": "Modelo de texto a imagen con 12 mil millones de parámetros de Black Forest Labs que utiliza destilación difusiva adversarial latente para generar imágenes de alta calidad en 1 a 4 pasos. Compite con alternativas cerradas y se lanza bajo licencia Apache-2.0 para uso personal, de investigación y comercial.", "flux-dev.description": "FLUX.1 [dev] es un modelo destilado con pesos abiertos para uso no comercial. Mantiene calidad de imagen casi profesional y seguimiento de instrucciones mientras funciona de manera más eficiente, utilizando mejor los recursos que modelos estándar del mismo tamaño.", "flux-kontext-max.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.", @@ -532,8 +529,6 @@ "gemini-2.0-flash-lite-001.description": "Una variante de Gemini 2.0 Flash optimizada para eficiencia de costos y baja latencia.", "gemini-2.0-flash-lite.description": "Una variante de Gemini 2.0 Flash optimizada para eficiencia de costos y baja latencia.", "gemini-2.0-flash.description": "Gemini 2.0 Flash ofrece funciones de nueva generación como velocidad excepcional, uso nativo de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens.", - "gemini-2.5-flash-image-preview.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes conversacionales.", - "gemini-2.5-flash-image-preview:image.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes conversacionales.", "gemini-2.5-flash-image.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes conversacionales.", "gemini-2.5-flash-image:image.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes conversacionales.", "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview es el modelo más pequeño y rentable de Google, diseñado para uso a gran escala.", @@ -550,7 +545,7 @@ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google y también admite chat multimodal.", "gemini-3-pro-preview.description": "Gemini 3 Pro es el agente más potente de Google y modelo de codificación emocional, que ofrece visuales más ricos e interacción más profunda sobre un razonamiento de última generación.", "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) es el modelo nativo de generación de imágenes más rápido de Google con soporte de pensamiento, generación conversacional de imágenes y edición.", - "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) ofrece calidad de imagen a nivel profesional a velocidad Flash con soporte para chat multimodal.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) es el modelo de generación de imágenes nativo más rápido de Google con soporte de razonamiento, generación conversacional de imágenes y edición.", "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview mejora las capacidades de razonamiento de Gemini 3 Pro y añade soporte para un nivel de pensamiento medio.", "gemini-flash-latest.description": "Última versión de Gemini Flash", "gemini-flash-lite-latest.description": "Última versión de Gemini Flash-Lite", @@ -692,7 +687,6 @@ "gpt-oss:120b.description": "GPT-OSS 120B es el LLM de código abierto de gran tamaño de OpenAI que utiliza cuantización MXFP4 y se posiciona como modelo insignia. Requiere entornos con múltiples GPU o estaciones de trabajo de alto rendimiento y ofrece un excelente rendimiento en razonamiento complejo, generación de código y procesamiento multilingüe, con funciones avanzadas de llamadas a funciones e integración de herramientas.", "gpt-oss:20b.description": "GPT-OSS 20B es un LLM de código abierto de OpenAI que utiliza cuantización MXFP4, adecuado para GPU de consumo de gama alta o Macs con Apple Silicon. Tiene buen rendimiento en generación de diálogos, codificación y tareas de razonamiento, y admite llamadas a funciones y uso de herramientas.", "gpt-realtime.description": "Un modelo general en tiempo real que admite entrada/salida de texto y audio en tiempo real, además de entrada de imagen.", - "grok-2-image-1212.description": "Nuestro modelo más reciente de generación de imágenes crea imágenes vívidas y realistas a partir de indicaciones, y destaca en casos de uso de marketing, redes sociales y entretenimiento.", "grok-2-vision-1212.description": "Mejora en precisión, seguimiento de instrucciones y capacidad multilingüe.", "grok-3-mini.description": "Un modelo ligero que piensa antes de responder. Es rápido e inteligente para tareas lógicas que no requieren conocimiento profundo del dominio, con acceso a trazas de razonamiento en bruto.", "grok-3.description": "Un modelo insignia que destaca en casos de uso empresariales como extracción de datos, codificación y resumen, con conocimiento profundo en finanzas, salud, derecho y ciencia.", @@ -1141,7 +1135,11 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking es un modelo multimodal de cadena de pensamiento para razonamiento visual detallado.", "qwen3-vl-flash.description": "Qwen3 VL Flash: versión ligera y de razonamiento rápido para solicitudes sensibles a la latencia o de alto volumen.", "qwen3-vl-plus.description": "Qwen VL es un modelo de generación de texto con comprensión visual. Puede realizar OCR, resumir y razonar, como extraer atributos de fotos de productos o resolver problemas a partir de imágenes.", + "qwen3.5-122b-a10b.description": "Admite entradas de texto, imagen y video. Para tareas solo de texto, su rendimiento es comparable al de Qwen3 Max, ofreciendo mayor eficiencia y menor costo. En capacidades multimodales, ofrece mejoras significativas sobre la serie Qwen3 VL.", + "qwen3.5-27b.description": "Admite entradas de texto, imagen y video. Para tareas solo de texto, su rendimiento es comparable al de Qwen3 Max, ofreciendo mayor eficiencia y menor costo. En capacidades multimodales, ofrece mejoras significativas sobre la serie Qwen3 VL.", + "qwen3.5-35b-a3b.description": "Admite entradas de texto, imagen y video. Para tareas solo de texto, su rendimiento es comparable al de Qwen3 Max, ofreciendo mayor eficiencia y menor costo. En capacidades multimodales, ofrece mejoras significativas sobre la serie Qwen3 VL.", "qwen3.5-397b-a17b.description": "Admite entradas de texto, imagen y video. Para tareas solo de texto, su rendimiento es comparable al de Qwen3 Max, ofreciendo mayor eficiencia y menor costo. En capacidades multimodales, ofrece mejoras significativas sobre la serie Qwen3 VL.", + "qwen3.5-flash.description": "El modelo Qwen más rápido y de menor costo, ideal para tareas simples.", "qwen3.5-plus.description": "Qwen3.5 Plus admite entrada de texto, imagen y video. Su rendimiento en tareas de texto puro es comparable al de Qwen3 Max, con mejor rendimiento y menor costo. Sus capacidades multimodales están significativamente mejoradas en comparación con la serie Qwen3 VL.", "qwen3.5:397b.description": "Qwen3.5 es un modelo fundacional unificado de visión-lenguaje con una arquitectura híbrida (Mixture-of-Experts + atención lineal), que ofrece un razonamiento multimodal sólido, codificación y capacidades de contexto largo con una ventana de contexto de 256K.", "qwen3.description": "Qwen3 es el modelo de lenguaje de próxima generación de Alibaba con alto rendimiento en diversos casos de uso.", @@ -1151,8 +1149,6 @@ "qwq.description": "QwQ es un modelo de razonamiento de la familia Qwen. En comparación con los modelos estándar ajustados por instrucciones, ofrece capacidades de pensamiento y razonamiento que mejoran significativamente el rendimiento en tareas difíciles. QwQ-32B es un modelo de razonamiento de tamaño medio que compite con los mejores modelos como DeepSeek-R1 y o1-mini.", "qwq_32b.description": "Modelo de razonamiento de tamaño medio de la familia Qwen. En comparación con los modelos estándar ajustados por instrucciones, las capacidades de pensamiento y razonamiento de QwQ mejoran significativamente el rendimiento en tareas difíciles.", "r1-1776.description": "R1-1776 es una variante postentrenada de DeepSeek R1 diseñada para proporcionar información factual sin censura ni sesgo.", - "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro de ByteDance permite generación de video a partir de texto, imagen a video (primer fotograma, primer+último fotograma) y generación de audio sincronizado con lo visual.", - "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite de BytePlus presenta generación aumentada con recuperación web para información en tiempo real, interpretación mejorada de indicaciones complejas y consistencia de referencia mejorada para creación visual profesional.", "solar-mini-ja.description": "Solar Mini (Ja) amplía Solar Mini con un enfoque en japonés, manteniendo un rendimiento eficiente y sólido en inglés y coreano.", "solar-mini.description": "Solar Mini es un modelo LLM compacto que supera a GPT-3.5, con una sólida capacidad multilingüe compatible con inglés y coreano, ofreciendo una solución eficiente de bajo consumo.", "solar-pro.description": "Solar Pro es un LLM de alta inteligencia de Upstage, enfocado en el seguimiento de instrucciones en una sola GPU, con puntuaciones IFEval superiores a 80. Actualmente admite inglés; el lanzamiento completo estaba previsto para noviembre de 2024 con soporte de idiomas ampliado y contexto más largo.", diff --git a/locales/es-ES/providers.json b/locales/es-ES/providers.json index 3bca43f51f..551505e888 100644 --- a/locales/es-ES/providers.json +++ b/locales/es-ES/providers.json @@ -30,7 +30,6 @@ "internlm.description": "Una organización de código abierto centrada en la investigación de modelos grandes y herramientas, que ofrece una plataforma eficiente y fácil de usar para acceder a modelos y algoritmos de vanguardia.", "jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.", "lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.", - "lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso mediante Créditos vinculados a los tokens del modelo.", "minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.", "mistral.description": "Mistral ofrece modelos avanzados generales, especializados y de investigación para razonamiento complejo, tareas multilingües y generación de código, con llamadas a funciones para integraciones personalizadas.", "modelscope.description": "ModelScope es la plataforma de modelos como servicio de Alibaba Cloud, que ofrece una amplia gama de modelos de IA y servicios de inferencia.", diff --git a/locales/fa-IR/agent.json b/locales/fa-IR/agent.json new file mode 100644 index 0000000000..4232baf20f --- /dev/null +++ b/locales/fa-IR/agent.json @@ -0,0 +1,34 @@ +{ + "integration.applicationId": "شناسه برنامه / نام کاربری ربات", + "integration.applicationIdPlaceholder": "مثال: 1234567890", + "integration.botToken": "توکن ربات / کلید API", + "integration.botTokenEncryptedHint": "توکن رمزگذاری شده و به صورت امن ذخیره خواهد شد.", + "integration.botTokenHowToGet": "چگونه دریافت کنیم؟", + "integration.botTokenPlaceholderExisting": "توکن به دلایل امنیتی مخفی است", + "integration.botTokenPlaceholderNew": "توکن ربات خود را اینجا وارد کنید", + "integration.connectionConfig": "پیکربندی اتصال", + "integration.copied": "به کلیپ‌بورد کپی شد", + "integration.copy": "کپی", + "integration.deleteConfirm": "آیا مطمئن هستید که می‌خواهید این یکپارچه‌سازی را حذف کنید؟", + "integration.disabled": "غیرفعال", + "integration.discord.description": "این دستیار را به سرور Discord برای چت کانال و پیام‌های مستقیم متصل کنید.", + "integration.documentation": "مستندات", + "integration.enabled": "فعال", + "integration.endpointUrl": "آدرس نقطه پایانی تعامل", + "integration.endpointUrlHint": "لطفاً این آدرس را کپی کرده و در قسمت \"آدرس نقطه پایانی تعامل\" در پورتال توسعه‌دهنده {{name}} قرار دهید.", + "integration.platforms": "پلتفرم‌ها", + "integration.publicKey": "کلید عمومی", + "integration.publicKeyPlaceholder": "برای تأیید تعامل مورد نیاز است", + "integration.removeFailed": "حذف یکپارچه‌سازی ناموفق بود", + "integration.removeIntegration": "حذف یکپارچه‌سازی", + "integration.removed": "یکپارچه‌سازی حذف شد", + "integration.save": "ذخیره پیکربندی", + "integration.saveFailed": "ذخیره پیکربندی ناموفق بود", + "integration.saveFirstWarning": "لطفاً ابتدا پیکربندی را ذخیره کنید", + "integration.saved": "پیکربندی با موفقیت ذخیره شد", + "integration.testConnection": "تست اتصال", + "integration.testFailed": "تست اتصال ناموفق بود", + "integration.testSuccess": "تست اتصال موفقیت‌آمیز بود", + "integration.updateFailed": "به‌روزرسانی وضعیت ناموفق بود", + "integration.validationError": "لطفاً شناسه برنامه و توکن را وارد کنید" +} diff --git a/locales/fa-IR/chat.json b/locales/fa-IR/chat.json index 37f107dc3b..ad292b644e 100644 --- a/locales/fa-IR/chat.json +++ b/locales/fa-IR/chat.json @@ -336,6 +336,7 @@ "supervisor.todoList.allComplete": "همه وظایف انجام شده‌اند", "supervisor.todoList.title": "وظایف انجام‌شده", "tab.groupProfile": "پروفایل گروه", + "tab.integration": "یکپارچه‌سازی", "tab.profile": "پروفایل نماینده", "tab.search": "جستجو", "task.activity.calling": "در حال فراخوانی مهارت...", diff --git a/locales/fa-IR/common.json b/locales/fa-IR/common.json index 9555c9de7c..828bebf236 100644 --- a/locales/fa-IR/common.json +++ b/locales/fa-IR/common.json @@ -209,7 +209,6 @@ "delete": "حذف", "document": "راهنمای کاربر", "download": "دانلود", - "downloadClient": "دانلود کلاینت", "duplicate": "تکراری", "edit": "ویرایش", "errors.invalidFileFormat": "فرمت فایل نامعتبر است", @@ -256,6 +255,7 @@ "footer.star.title": "ما را در گیت‌هاب ستاره‌دار کنید", "footer.title": "از محصول ما خوشتان آمده؟", "fullscreen": "حالت تمام‌صفحه", + "getDesktopApp": "دریافت برنامه دسکتاپ", "historyRange": "محدوده تاریخچه", "home.suggestQuestions": "این نمونه‌ها را امتحان کنید", "import": "وارد کردن", diff --git a/locales/fa-IR/models.json b/locales/fa-IR/models.json index d8453971d2..30c05b1fe1 100644 --- a/locales/fa-IR/models.json +++ b/locales/fa-IR/models.json @@ -77,10 +77,8 @@ "MiniMax-M1.description": "یک مدل استدلالی داخلی جدید با ۸۰ هزار زنجیره تفکر و ورودی ۱ میلیون توکن، با عملکردی در سطح مدل‌های برتر جهانی.", "MiniMax-M2-Stable.description": "طراحی‌شده برای کدنویسی کارآمد و جریان‌های کاری عامل‌محور، با هم‌زمانی بالاتر برای استفاده تجاری.", "MiniMax-M2.1-Lightning.description": "قابلیت‌های قدرتمند برنامه‌نویسی چندزبانه با تجربه‌ای کاملاً ارتقاء‌یافته. سریع‌تر و کارآمدتر.", - "MiniMax-M2.1-highspeed.description": "قابلیت‌های برنامه‌نویسی چندزبانه قدرتمند با استنتاج سریع‌تر و کارآمدتر.", "MiniMax-M2.1.description": "MiniMax-M2.1 یک مدل بزرگ متن‌باز پیشرفته از MiniMax است که بر حل وظایف پیچیده دنیای واقعی تمرکز دارد. نقاط قوت اصلی آن شامل توانایی برنامه‌نویسی چندزبانه و قابلیت عمل به‌عنوان یک عامل هوشمند برای حل مسائل پیچیده است.", "MiniMax-M2.5-Lightning.description": "M2.5 Lightning: همان عملکرد، سریع‌تر و چابک‌تر (تقریباً 100 tps).", - "MiniMax-M2.5-highspeed.description": "همان عملکرد M2.5 با استنتاج به‌طور قابل‌توجهی سریع‌تر.", "MiniMax-M2.5.description": "MiniMax-M2.5 یک مدل بزرگ متن‌باز پرچمدار از MiniMax است که بر حل وظایف پیچیده دنیای واقعی تمرکز دارد. نقاط قوت اصلی آن توانایی برنامه‌نویسی چندزبانه و قابلیت حل وظایف پیچیده به عنوان یک عامل (Agent) است.", "MiniMax-M2.description": "طراحی‌شده به‌طور خاص برای کدنویسی کارآمد و جریان‌های کاری عامل‌محور.", "MiniMax-Text-01.description": "MiniMax-01 توجه خطی در مقیاس بزرگ را فراتر از ترنسفورمرهای کلاسیک معرفی می‌کند، با ۴۵۶ میلیارد پارامتر و ۴۵.۹ میلیارد پارامتر فعال در هر عبور. این مدل عملکردی در سطح برتر ارائه می‌دهد و تا ۴ میلیون توکن زمینه را پشتیبانی می‌کند (۳۲ برابر GPT-4o، ۲۰ برابر Claude-3.5-Sonnet).", @@ -283,9 +281,9 @@ "chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت لحظه‌ای به‌روزرسانی می‌شود. این مدل ترکیبی از درک زبان قوی و تولید محتوا برای موارد استفاده گسترده مانند پشتیبانی مشتری، آموزش و کمک فنی ارائه می‌دهد.", "claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.", "claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.", - "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است که مهارت‌های مختلف را بهبود بخشیده و در بسیاری از معیارها از مدل پرچم‌دار قبلی Claude 3 Opus پیشی گرفته است.", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل بعدی Anthropic است. در مقایسه با Claude 3 Haiku، در مهارت‌ها بهبود یافته و در بسیاری از معیارهای هوش از مدل قبلی Claude 3 Opus پیشی می‌گیرد.", "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخ‌های سریع برای وظایف سبک ارائه می‌دهد.", - "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هوشمندترین مدل Anthropic و نخستین مدل ترکیبی استدلال در بازار است که پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام را با کنترل دقیق ارائه می‌دهد.", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و اولین مدل ترکیبی استدلال در بازار است. این مدل می‌تواند پاسخ‌های تقریباً فوری یا استدلال گام‌به‌گام طولانی ارائه دهد که کاربران می‌توانند آن را مشاهده کنند. Sonnet به‌ویژه در کدنویسی، علم داده، بینایی و وظایف عامل قوی است.", "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.", "claude-3-haiku-20240307.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای پاسخ‌های تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.", "claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.", @@ -293,17 +291,17 @@ "claude-3.5-sonnet.description": "Claude 3.5 Sonnet در برنامه‌نویسی، نویسندگی و استدلال‌های پیچیده عملکردی برجسته دارد.", "claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet با قابلیت تفکر پیشرفته برای انجام وظایف استدلالی پیچیده طراحی شده است.", "claude-3.7-sonnet.description": "Claude 3.7 Sonnet نسخه‌ای ارتقاءیافته با زمینه و قابلیت‌های گسترده‌تر است.", - "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی تفکر گسترده عرضه شده است.", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعت فوق‌العاده و استدلال پیشرفته ارائه می‌شود.", "claude-haiku-4.5.description": "Claude Haiku 4.5 مدلی سریع و کارآمد برای انجام وظایف گوناگون است.", "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که می‌تواند فرآیند استدلال خود را آشکار کند.", - "claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب برتری دارد.", - "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب برتری دارد.", + "claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک برتری دارد.", + "claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و فهم برتری دارد.", "claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش برجسته را با عملکرد مقیاس‌پذیر ترکیب می‌کند و برای وظایف پیچیده‌ای که نیاز به پاسخ‌های باکیفیت و استدلال دارند، ایده‌آل است.", - "claude-opus-4-6.description": "Claude Opus 4.6 هوشمندترین مدل Anthropic برای ساخت عامل‌ها و برنامه‌نویسی است.", + "claude-opus-4-6.description": "Claude Opus 4.6 هوشمندترین مدل Anthropic برای ساخت عوامل و کدنویسی است.", "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.", - "claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است که پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام را با کنترل دقیق برای کاربران API ارائه می‌دهد.", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده ارائه دهد.", "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.", - "claude-sonnet-4-6.description": "Claude Sonnet 4.6 بهترین ترکیب سرعت و هوش از Anthropic است.", + "claude-sonnet-4-6.description": "Claude Sonnet 4.6 بهترین ترکیب سرعت و هوش Anthropic است.", "claude-sonnet-4.description": "Claude Sonnet 4 نسل جدیدی از این مدل با عملکرد بهبود یافته در تمامی وظایف است.", "codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامه‌نویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی می‌کند تا بهره‌وری توسعه‌دهندگان را افزایش دهد.", "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی می‌کند و طیف گسترده‌ای از سناریوهای توسعه نرم‌افزار را پوشش می‌دهد. این مدل یکی از بهترین مدل‌های کد زیر ۱۰ میلیارد پارامتر است.", @@ -373,7 +371,7 @@ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.", "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 یک مدل استدلال نسل بعدی با قابلیت‌های استدلال پیچیده‌تر و زنجیره‌ای از تفکر است.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعال‌سازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قوی‌ای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایه‌گذاری بصری عملکرد درخشانی دارد.", - "deepseek-chat.description": "DeepSeek V3.2 تعادلی میان استدلال و طول خروجی برای پرسش‌وپاسخ روزمره و وظایف عامل‌ها برقرار می‌کند. در معیارهای عمومی به سطح GPT-5 می‌رسد و نخستین مدلی است که تفکر را در استفاده از ابزارها ادغام کرده و در ارزیابی‌های عامل‌های متن‌باز پیشتاز است.", + "deepseek-chat.description": "یک مدل متن‌باز جدید که توانایی‌های عمومی و کدنویسی را ترکیب می‌کند. این مدل گفتگوی عمومی مدل چت و کدنویسی قوی مدل کدنویس را حفظ کرده و با هم‌ترازی بهتر ترجیحات ارائه می‌دهد. DeepSeek-V2.5 همچنین نوشتن و پیروی از دستورالعمل‌ها را بهبود می‌بخشد.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامه‌نویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم می‌کند.", "deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.", "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.", @@ -396,7 +394,7 @@ "deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخ‌دهی سریع‌تر ترکیب می‌کند.", "deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قوی‌تری را ارائه می‌دهد.", "deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از داده‌های شروع سرد استفاده می‌کند و در وظایف ریاضی، کدنویسی و استدلال عملکردی هم‌سطح با OpenAI-o1 دارد.", - "deepseek-reasoner.description": "DeepSeek V3.2 Thinking یک مدل استدلال عمیق است که پیش از تولید خروجی، زنجیره‌ای از افکار را ایجاد می‌کند تا دقت بالاتری داشته باشد و در رقابت‌های برتر نتایجی عالی کسب کرده و استدلالی در سطح Gemini-3.0-Pro ارائه می‌دهد.", + "deepseek-reasoner.description": "حالت تفکر DeepSeek V3.2 زنجیره‌ای از تفکر را قبل از پاسخ نهایی ارائه می‌دهد تا دقت را بهبود بخشد.", "deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرون‌به‌صرفه را امکان‌پذیر می‌سازد.", "deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.", "deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامه‌نویسی، توانایی‌های فنی، درک زمینه و پردازش متون بلند عملکرد برجسته‌ای دارد.", @@ -491,8 +489,7 @@ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفت‌وگوی چندمرحله‌ای است.", "ernie-x1.1-preview.description": "پیش‌نمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.", "ernie-x1.1.description": "ERNIE X1.1 یک مدل تفکر پیش‌نمایش برای ارزیابی و آزمایش است.", - "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5، ساخته تیم Seed در ByteDance، از ویرایش و ترکیب چندتصویری پشتیبانی می‌کند. این مدل دارای ثبات موضوعی بهبود یافته، پیروی دقیق از دستورالعمل‌ها، درک منطق فضایی، بیان زیبایی‌شناختی، طراحی پوستر و لوگو با رندر دقیق متن-تصویر است.", - "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، ساخته تیم Seed در ByteDance، از ورودی‌های متنی و تصویری برای تولید تصاویر با کیفیت بالا و کنترل‌پذیری بالا از طریق دستورات پشتیبانی می‌کند.", + "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودی‌های متنی و تصویری پشتیبانی می‌کند و تولید تصاویر با کیفیت بالا و قابل کنترل را ارائه می‌دهد. این مدل تصاویر را از دستورات متنی تولید می‌کند.", "fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودی‌های متنی و تصویری پشتیبانی می‌کند.", "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودی‌های متنی و تصاویر مرجع را می‌پذیرد و امکان ویرایش‌های محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم می‌کند.", "fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیبایی‌شناسی به تصاویر طبیعی و واقع‌گرایانه‌تر است.", @@ -500,8 +497,8 @@ "fal-ai/hunyuan-image/v3.description": "یک مدل قدرتمند بومی چندوجهی برای تولید تصویر.", "fal-ai/imagen4/preview.description": "مدل تولید تصویر با کیفیت بالا از گوگل.", "fal-ai/nano-banana.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویر از طریق مکالمه را فراهم می‌کند.", - "fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفه‌ای از تیم Qwen که از ویرایش معنایی و ظاهری، ویرایش دقیق متن چینی/انگلیسی، انتقال سبک، چرخش و موارد دیگر پشتیبانی می‌کند.", - "fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با قابلیت رندر قوی متن چینی و سبک‌های بصری متنوع.", + "fal-ai/qwen-image-edit.description": "یک مدل ویرایش تصویر حرفه‌ای از تیم Qwen که از ویرایش‌های معنایی و ظاهری پشتیبانی می‌کند، متن‌های چینی و انگلیسی را به‌دقت ویرایش می‌کند و ویرایش‌های با کیفیت بالا مانند انتقال سبک و چرخش اشیاء را ممکن می‌سازد.", + "fal-ai/qwen-image.description": "یک مدل تولید تصویر قدرتمند از تیم Qwen با قابلیت‌های برجسته در رندر متن چینی و سبک‌های بصری متنوع.", "flux-1-schnell.description": "مدل تبدیل متن به تصویر با ۱۲ میلیارد پارامتر از Black Forest Labs که از تقطیر انتشار تقابلی نهفته برای تولید تصاویر با کیفیت بالا در ۱ تا ۴ مرحله استفاده می‌کند. این مدل با جایگزین‌های بسته رقابت می‌کند و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است.", "flux-dev.description": "FLUX.1 [dev] یک مدل تقطیر شده با وزن‌های باز برای استفاده غیرتجاری است. این مدل کیفیت تصویر نزدیک به حرفه‌ای و پیروی از دستورالعمل را حفظ می‌کند و در عین حال کارآمدتر اجرا می‌شود و منابع را بهتر از مدل‌های استاندارد هم‌سایز استفاده می‌کند.", "flux-kontext-max.description": "تولید و ویرایش تصویر متنی-زمینه‌ای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب می‌کند.", @@ -532,8 +529,6 @@ "gemini-2.0-flash-lite-001.description": "یک نسخه بهینه‌شده Gemini 2.0 Flash برای بهره‌وری هزینه و تأخیر کم.", "gemini-2.0-flash-lite.description": "یک نسخه بهینه‌شده Gemini 2.0 Flash برای بهره‌وری هزینه و تأخیر کم.", "gemini-2.0-flash.description": "Gemini 2.0 Flash ویژگی‌های نسل بعدی از جمله سرعت استثنایی، استفاده بومی از ابزارها، تولید چندوجهی و پنجره زمینه ۱ میلیون توکن را ارائه می‌دهد.", - "gemini-2.5-flash-image-preview.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویری مکالمه‌محور را فراهم می‌کند.", - "gemini-2.5-flash-image-preview:image.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویری مکالمه‌محور را فراهم می‌کند.", "gemini-2.5-flash-image.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌ای را ممکن می‌سازد.", "gemini-2.5-flash-image:image.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌ای را ممکن می‌سازد.", "gemini-2.5-flash-lite-preview-06-17.description": "نسخه پیش‌نمایش Gemini 2.5 Flash-Lite کوچک‌ترین و مقرون‌به‌صرفه‌ترین مدل گوگل است که برای استفاده در مقیاس وسیع طراحی شده است.", @@ -547,10 +542,10 @@ "gemini-2.5-pro.description": "Gemini 2.5 Pro پرچم‌دار مدل‌های استدلالی گوگل است که از زمینه‌های طولانی برای انجام وظایف پیچیده پشتیبانی می‌کند.", "gemini-3-flash-preview.description": "Gemini 3 Flash هوشمندترین مدل طراحی‌شده برای سرعت است که هوش پیشرفته را با قابلیت جست‌وجوی دقیق ترکیب می‌کند.", "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفتگوی چندوجهی نیز پشتیبانی می‌کند.", - "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفت‌وگوی چندوجهی نیز پشتیبانی می‌کند.", + "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از چت چندوجهی نیز پشتیبانی می‌کند.", "gemini-3-pro-preview.description": "Gemini 3 Pro قدرتمندترین مدل عامل و کدنویسی احساسی گوگل است که تعاملات بصری غنی‌تر و تعامل عمیق‌تری را بر پایه استدلال پیشرفته ارائه می‌دهد.", "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) سریع‌ترین مدل تولید تصویر بومی گوگل با پشتیبانی از تفکر، تولید و ویرایش تصویر مکالمه‌ای است.", - "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) کیفیت تصویر حرفه‌ای را با سرعت Flash ارائه می‌دهد و از چت چندوجهی پشتیبانی می‌کند.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) سریع‌ترین مدل تولید تصویر بومی گوگل است که از تفکر، تولید تصویری مکالمه‌ای و ویرایش پشتیبانی می‌کند.", "gemini-3.1-pro-preview.description": "پیش‌نمایش Gemini 3.1 Pro قابلیت‌های استدلال بهبود یافته را به Gemini 3 Pro اضافه می‌کند و از سطح تفکر متوسط پشتیبانی می‌کند.", "gemini-flash-latest.description": "آخرین نسخه منتشرشده از Gemini Flash", "gemini-flash-lite-latest.description": "آخرین نسخه منتشرشده از Gemini Flash-Lite", @@ -692,7 +687,6 @@ "gpt-oss:120b.description": "GPT-OSS 120B مدل LLM بزرگ متن‌باز OpenAI با کوانتیزاسیون MXFP4 است که به عنوان مدل پرچم‌دار معرفی شده. نیازمند محیط چند GPU یا ایستگاه کاری پیشرفته است و در استدلال پیچیده، تولید کد و پردازش چندزبانه عملکرد عالی دارد، با قابلیت فراخوانی توابع پیشرفته و ادغام ابزارها.", "gpt-oss:20b.description": "GPT-OSS 20B یک LLM متن‌باز از OpenAI با کوانتیزاسیون MXFP4 است که برای GPUهای مصرفی پیشرفته یا مک‌های Apple Silicon مناسب است. در تولید گفت‌وگو، برنامه‌نویسی و وظایف استدلالی عملکرد خوبی دارد و از فراخوانی توابع و استفاده از ابزارها پشتیبانی می‌کند.", "gpt-realtime.description": "مدل بلادرنگ عمومی با پشتیبانی از ورودی/خروجی بلادرنگ متن و صوت، به‌علاوه ورودی تصویری.", - "grok-2-image-1212.description": "جدیدترین مدل تولید تصویر ما، تصاویر زنده و واقع‌گرایانه‌ای را از دستورات تولید می‌کند و در کاربردهای بازاریابی، شبکه‌های اجتماعی و سرگرمی عملکرد درخشانی دارد.", "grok-2-vision-1212.description": "دقت بهبود یافته، پیروی بهتر از دستورالعمل‌ها و پشتیبانی چندزبانه.", "grok-3-mini.description": "مدلی سبک‌وزن که پیش از پاسخ‌دهی فکر می‌کند. برای وظایف منطقی که نیاز به دانش تخصصی عمیق ندارند، سریع و هوشمند است و به ردپای استدلال خام دسترسی دارد.", "grok-3.description": "مدل پرچم‌دار که در کاربردهای سازمانی مانند استخراج داده، برنامه‌نویسی و خلاصه‌سازی برتری دارد و دارای دانش عمیق در حوزه‌های مالی، سلامت، حقوق و علوم است.", @@ -1141,7 +1135,11 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking یک مدل زنجیره تفکر چندرسانه‌ای برای استدلال بصری دقیق است.", "qwen3-vl-flash.description": "Qwen3 VL Flash: نسخه سبک و پرسرعت برای استدلال در درخواست‌های حساس به تأخیر یا با حجم بالا.", "qwen3-vl-plus.description": "Qwen VL یک مدل تولید متن با درک بصری است. می‌تواند OCR انجام دهد و همچنین خلاصه‌سازی و استدلال کند، مانند استخراج ویژگی‌ها از عکس‌های محصول یا حل مسائل از روی تصاویر.", + "qwen3.5-122b-a10b.description": "از ورودی‌های متنی، تصویری و ویدیویی پشتیبانی می‌کند. برای وظایف فقط متنی، عملکرد آن قابل مقایسه با Qwen3 Max است و کارایی بالاتر و هزینه کمتری ارائه می‌دهد. در قابلیت‌های چندوجهی، بهبودهای قابل توجهی نسبت به سری Qwen3 VL ارائه می‌دهد.", + "qwen3.5-27b.description": "از ورودی‌های متنی، تصویری و ویدیویی پشتیبانی می‌کند. برای وظایف فقط متنی، عملکرد آن قابل مقایسه با Qwen3 Max است و کارایی بالاتر و هزینه کمتری ارائه می‌دهد. در قابلیت‌های چندوجهی، بهبودهای قابل توجهی نسبت به سری Qwen3 VL ارائه می‌دهد.", + "qwen3.5-35b-a3b.description": "از ورودی‌های متنی، تصویری و ویدیویی پشتیبانی می‌کند. برای وظایف فقط متنی، عملکرد آن قابل مقایسه با Qwen3 Max است و کارایی بالاتر و هزینه کمتری ارائه می‌دهد. در قابلیت‌های چندوجهی، بهبودهای قابل توجهی نسبت به سری Qwen3 VL ارائه می‌دهد.", "qwen3.5-397b-a17b.description": "از ورودی‌های متن، تصویر و ویدئو پشتیبانی می‌کند. برای وظایف فقط متنی، عملکرد آن قابل مقایسه با Qwen3 Max است، که کارایی بالاتر و هزینه کمتری ارائه می‌دهد. در قابلیت‌های چندوجهی، بهبودهای قابل‌توجهی نسبت به سری Qwen3 VL ارائه می‌دهد.", + "qwen3.5-flash.description": "سریع‌ترین و کم‌هزینه‌ترین مدل Qwen، ایده‌آل برای وظایف ساده.", "qwen3.5-plus.description": "Qwen3.5 Plus از ورودی متن، تصویر و ویدئو پشتیبانی می‌کند. عملکرد آن در وظایف متنی خالص قابل مقایسه با Qwen3 Max است، با عملکرد بهتر و هزینه کمتر. قابلیت‌های چندوجهی آن به طور قابل توجهی نسبت به سری Qwen3 VL بهبود یافته است.", "qwen3.5:397b.description": "Qwen3.5 یک مدل پایه بینایی-زبان یکپارچه با معماری ترکیبی (Mixture-of-Experts + توجه خطی) است که استدلال چندوجهی قوی، کدنویسی و قابلیت‌های زمینه طولانی با یک پنجره زمینه 256K ارائه می‌دهد.", "qwen3.description": "Qwen3 نسل بعدی مدل زبان بزرگ علی‌بابا است که عملکرد قدرتمندی در کاربردهای متنوع دارد.", @@ -1151,8 +1149,6 @@ "qwq.description": "QwQ یک مدل استدلال در خانواده Qwen است. در مقایسه با مدل‌های تنظیم‌شده با دستورالعمل استاندارد، توانایی تفکر و استدلال آن عملکرد پایین‌دستی را به‌ویژه در مسائل دشوار به‌طور قابل توجهی بهبود می‌بخشد. QwQ-32B یک مدل استدلال میان‌رده است که با مدل‌های برتر مانند DeepSeek-R1 و o1-mini رقابت می‌کند.", "qwq_32b.description": "مدل استدلال میان‌رده در خانواده Qwen. در مقایسه با مدل‌های تنظیم‌شده با دستورالعمل استاندارد، توانایی تفکر و استدلال QwQ عملکرد پایین‌دستی را به‌ویژه در مسائل دشوار به‌طور قابل توجهی بهبود می‌بخشد.", "r1-1776.description": "R1-1776 نسخه پس‌آموزشی مدل DeepSeek R1 است که برای ارائه اطلاعات واقعی، بدون سانسور و بی‌طرف طراحی شده است.", - "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro از ByteDance از تبدیل متن به ویدیو، تصویر به ویدیو (فریم اول، فریم اول+آخر) و تولید صدا هماهنگ با تصویر پشتیبانی می‌کند.", - "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite توسط BytePlus ویژگی‌های تولید با بازیابی وب برای اطلاعات لحظه‌ای، تفسیر پیچیده دستورالعمل‌ها و سازگاری مرجع بهبود یافته برای خلق بصری حرفه‌ای را ارائه می‌دهد.", "solar-mini-ja.description": "Solar Mini (ژاپنی) نسخه‌ای از Solar Mini با تمرکز بر زبان ژاپنی است که در عین حال عملکرد قوی و کارآمدی در زبان‌های انگلیسی و کره‌ای حفظ می‌کند.", "solar-mini.description": "Solar Mini یک مدل زبانی فشرده است که عملکردی بهتر از GPT-3.5 دارد و با پشتیبانی چندزبانه قوی از زبان‌های انگلیسی و کره‌ای، راه‌حلی کارآمد با حجم کم ارائه می‌دهد.", "solar-pro.description": "Solar Pro یک مدل زبانی هوشمند از Upstage است که برای پیروی از دستورالعمل‌ها روی یک GPU طراحی شده و امتیاز IFEval بالای ۸۰ دارد. در حال حاضر از زبان انگلیسی پشتیبانی می‌کند؛ انتشار کامل آن برای نوامبر ۲۰۲۴ با پشتیبانی زبانی گسترده‌تر و زمینه طولانی‌تر برنامه‌ریزی شده است.", diff --git a/locales/fa-IR/providers.json b/locales/fa-IR/providers.json index 772630f165..f74af44a5f 100644 --- a/locales/fa-IR/providers.json +++ b/locales/fa-IR/providers.json @@ -30,7 +30,6 @@ "internlm.description": "یک سازمان متن‌باز متمرکز بر تحقیقات مدل‌های بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه می‌دهد تا مدل‌ها و الگوریتم‌های پیشرفته را در دسترس قرار دهد.", "jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدل‌های برداری، رتبه‌بندها و مدل‌های زبانی کوچک برای ساخت اپلیکیشن‌های جستجوی مولد و چندوجهی با کیفیت بالا است.", "lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدل‌های زبانی بزرگ روی رایانه شخصی شماست.", - "lobehub.description": "LobeHub Cloud با استفاده از APIهای رسمی به مدل‌های هوش مصنوعی دسترسی پیدا می‌کند و مصرف را با اعتباراتی که به توکن‌های مدل وابسته‌اند، اندازه‌گیری می‌کند.", "minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدل‌های پایه چندوجهی از جمله مدل‌های متنی با پارامترهای تریلیونی، مدل‌های گفتاری و تصویری توسعه می‌دهد و اپ‌هایی مانند Hailuo AI را ارائه می‌کند.", "mistral.description": "Mistral مدل‌های عمومی، تخصصی و تحقیقاتی پیشرفته‌ای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه می‌دهد و از فراخوانی توابع برای یکپارچه‌سازی سفارشی پشتیبانی می‌کند.", "modelscope.description": "ModelScope پلتفرم مدل به‌عنوان‌سرویس Alibaba Cloud است که مجموعه‌ای گسترده از مدل‌های هوش مصنوعی و خدمات استنتاج را ارائه می‌دهد.", diff --git a/locales/fr-FR/agent.json b/locales/fr-FR/agent.json new file mode 100644 index 0000000000..531d8a1f7c --- /dev/null +++ b/locales/fr-FR/agent.json @@ -0,0 +1,34 @@ +{ + "integration.applicationId": "ID de l'application / Nom d'utilisateur du bot", + "integration.applicationIdPlaceholder": "par exemple 1234567890", + "integration.botToken": "Jeton du bot / Clé API", + "integration.botTokenEncryptedHint": "Le jeton sera chiffré et stocké en toute sécurité.", + "integration.botTokenHowToGet": "Comment l'obtenir ?", + "integration.botTokenPlaceholderExisting": "Le jeton est masqué pour des raisons de sécurité", + "integration.botTokenPlaceholderNew": "Collez votre jeton de bot ici", + "integration.connectionConfig": "Configuration de la connexion", + "integration.copied": "Copié dans le presse-papiers", + "integration.copy": "Copier", + "integration.deleteConfirm": "Êtes-vous sûr de vouloir supprimer cette intégration ?", + "integration.disabled": "Désactivé", + "integration.discord.description": "Connectez cet assistant au serveur Discord pour les discussions de canal et les messages directs.", + "integration.documentation": "Documentation", + "integration.enabled": "Activé", + "integration.endpointUrl": "URL du point de terminaison d'interaction", + "integration.endpointUrlHint": "Veuillez copier cette URL et la coller dans le champ \"URL du point de terminaison des interactions\" dans le portail développeur {{name}}.", + "integration.platforms": "Plateformes", + "integration.publicKey": "Clé publique", + "integration.publicKeyPlaceholder": "Requise pour la vérification des interactions", + "integration.removeFailed": "Échec de la suppression de l'intégration", + "integration.removeIntegration": "Supprimer l'intégration", + "integration.removed": "Intégration supprimée", + "integration.save": "Enregistrer la configuration", + "integration.saveFailed": "Échec de l'enregistrement de la configuration", + "integration.saveFirstWarning": "Veuillez d'abord enregistrer la configuration", + "integration.saved": "Configuration enregistrée avec succès", + "integration.testConnection": "Tester la connexion", + "integration.testFailed": "Échec du test de connexion", + "integration.testSuccess": "Test de connexion réussi", + "integration.updateFailed": "Échec de la mise à jour du statut", + "integration.validationError": "Veuillez remplir l'ID de l'application et le jeton" +} diff --git a/locales/fr-FR/chat.json b/locales/fr-FR/chat.json index 3114d45e63..433f28ff35 100644 --- a/locales/fr-FR/chat.json +++ b/locales/fr-FR/chat.json @@ -336,6 +336,7 @@ "supervisor.todoList.allComplete": "Toutes les tâches sont terminées", "supervisor.todoList.title": "Tâches terminées", "tab.groupProfile": "Profil du groupe", + "tab.integration": "Intégration", "tab.profile": "Profil de l'agent", "tab.search": "Recherche", "task.activity.calling": "Appel de compétence...", diff --git a/locales/fr-FR/common.json b/locales/fr-FR/common.json index 85a43039ce..2f316ee059 100644 --- a/locales/fr-FR/common.json +++ b/locales/fr-FR/common.json @@ -209,7 +209,6 @@ "delete": "Supprimer", "document": "Manuel utilisateur", "download": "Télécharger", - "downloadClient": "Télécharger le client", "duplicate": "Dupliquer", "edit": "Modifier", "errors.invalidFileFormat": "Format de fichier invalide", @@ -256,6 +255,7 @@ "footer.star.title": "Ajoutez-nous une étoile sur GitHub", "footer.title": "Vous aimez notre produit ?", "fullscreen": "Mode plein écran", + "getDesktopApp": "Obtenir l'application de bureau", "historyRange": "Plage d'historique", "home.suggestQuestions": "Essayez ces exemples", "import": "Importer", diff --git a/locales/fr-FR/models.json b/locales/fr-FR/models.json index 97e6f7a4e9..7bb3c8e3b1 100644 --- a/locales/fr-FR/models.json +++ b/locales/fr-FR/models.json @@ -77,10 +77,8 @@ "MiniMax-M1.description": "Un nouveau modèle de raisonnement interne avec 80 000 chaînes de pensée et 1 million d’entrées, offrant des performances comparables aux meilleurs modèles mondiaux.", "MiniMax-M2-Stable.description": "Conçu pour un codage efficace et des flux de travail d’agents, avec une plus grande simultanéité pour un usage commercial.", "MiniMax-M2.1-Lightning.description": "Puissantes capacités de programmation multilingue, expérience de codage entièrement améliorée. Plus rapide et plus efficace.", - "MiniMax-M2.1-highspeed.description": "Capacités de programmation multilingues puissantes avec une inférence plus rapide et plus efficace.", "MiniMax-M2.1.description": "MiniMax-M2.1 est un modèle phare open source de MiniMax, conçu pour résoudre des tâches complexes du monde réel. Ses principaux atouts résident dans ses capacités de programmation multilingue et sa faculté à résoudre des problèmes complexes en tant qu'agent.", "MiniMax-M2.5-Lightning.description": "M2.5 Lightning : Même performance, plus rapide et plus agile (environ 100 tps).", - "MiniMax-M2.5-highspeed.description": "Même performance que M2.5 avec une inférence nettement plus rapide.", "MiniMax-M2.5.description": "MiniMax-M2.5 est un modèle phare open-source de grande taille développé par MiniMax, axé sur la résolution de tâches complexes du monde réel. Ses principaux atouts sont ses capacités de programmation multilingue et sa capacité à résoudre des tâches complexes en tant qu'Agent.", "MiniMax-M2.description": "Conçu spécifiquement pour un codage efficace et des flux de travail d'agents", "MiniMax-Text-01.description": "MiniMax-01 introduit une attention linéaire à grande échelle au-delà des Transformers classiques, avec 456 milliards de paramètres et 45,9 milliards activés par passage. Il atteint des performances de premier plan et prend en charge jusqu’à 4 millions de jetons de contexte (32× GPT-4o, 20× Claude-3.5-Sonnet).", @@ -283,9 +281,9 @@ "chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel. Il combine une compréhension et une génération linguistiques puissantes pour des cas d'utilisation à grande échelle tels que le support client, l'éducation et l'assistance technique.", "claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.", "claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.", - "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d'Anthropic, offrant des améliorations dans de nombreuses compétences et surpassant l'ancien modèle phare Claude 3 Opus sur de nombreux benchmarks.", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle de nouvelle génération le plus rapide d'Anthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences et dépasse le précédent plus grand modèle, Claude 3 Opus, sur de nombreux benchmarks d'intelligence.", "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.", - "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 est le modèle le plus intelligent d'Anthropic et le premier modèle de raisonnement hybride sur le marché, permettant des réponses quasi instantanées ou une réflexion approfondie avec un contrôle précis.", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent d'Anthropic et le premier modèle de raisonnement hybride sur le marché. Il peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par les utilisateurs. Sonnet est particulièrement performant en codage, science des données, vision et tâches d'agents.", "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.", "claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d’Anthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.", "claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant d’Anthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.", @@ -293,16 +291,16 @@ "claude-3.5-sonnet.description": "Claude 3.5 Sonnet excelle en programmation, en rédaction et en raisonnement complexe.", "claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet avec réflexion étendue pour les tâches de raisonnement complexe.", "claude-3.7-sonnet.description": "Claude 3.7 Sonnet est une version améliorée avec un contexte étendu et des capacités accrues.", - "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d'Anthropic, combinant une vitesse fulgurante à une capacité de réflexion étendue.", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d'Anthropic, avec une vitesse fulgurante et un raisonnement étendu.", "claude-haiku-4.5.description": "Claude Haiku 4.5 est un modèle rapide et efficace pour diverses tâches.", "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.", - "claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant d'Anthropic pour les tâches hautement complexes, excellant en performance, intelligence, fluidité et compréhension.", - "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic pour les tâches hautement complexes, se distinguant par sa performance, son intelligence, sa fluidité et sa compréhension.", + "claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le dernier modèle d'Anthropic, le plus performant pour les tâches hautement complexes, excelle en performance, intelligence, fluidité et compréhension.", + "claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic pour les tâches hautement complexes, excelle en performance, intelligence, fluidité et compréhension.", "claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare d’Anthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.", - "claude-opus-4-6.description": "Claude Opus 4.6 est le modèle le plus intelligent d'Anthropic pour la création d'agents et le développement de code.", + "claude-opus-4-6.description": "Claude Opus 4.6 est le modèle le plus intelligent d'Anthropic pour la création d'agents et le codage.", "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.", - "claude-sonnet-4-20250514.description": "Claude Sonnet 4 est le modèle le plus intelligent jamais conçu par Anthropic, offrant des réponses quasi instantanées ou une réflexion pas à pas approfondie avec un contrôle précis pour les utilisateurs d'API.", - "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent jamais conçu par Anthropic.", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.", + "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d'Anthropic à ce jour.", "claude-sonnet-4-6.description": "Claude Sonnet 4.6 est la meilleure combinaison de vitesse et d'intelligence d'Anthropic.", "claude-sonnet-4.description": "Claude Sonnet 4 est la dernière génération avec des performances améliorées sur l’ensemble des tâches.", "codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.", @@ -373,7 +371,7 @@ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.", "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 est un modèle de raisonnement de nouvelle génération avec des capacités renforcées de raisonnement complexe et de chaîne de pensée.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 est un modèle vision-langage MoE basé sur DeepSeekMoE-27B avec activation clairsemée, atteignant de hautes performances avec seulement 4,5B de paramètres actifs. Il excelle en QA visuelle, OCR, compréhension de documents/tableaux/graphes et ancrage visuel.", - "deepseek-chat.description": "DeepSeek V3.2 équilibre raisonnement et longueur de sortie pour les tâches quotidiennes de questions-réponses et d'agents. Les benchmarks publics atteignent le niveau de GPT-5, et c'est le premier à intégrer la réflexion dans l'utilisation d'outils, menant les évaluations open source d'agents.", + "deepseek-chat.description": "Un nouveau modèle open-source combinant des capacités générales et de codage. Il conserve le dialogue général du modèle de chat et les solides compétences en codage du modèle de programmeur, avec un meilleur alignement des préférences. DeepSeek-V2.5 améliore également l'écriture et le suivi des instructions.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à l’échelle du projet et un remplissage de fragments.", "deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.", "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.", @@ -396,7 +394,7 @@ "deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant des capacités à l’échelle de 671B et des réponses plus rapides.", "deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.", "deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant l’apprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.", - "deepseek-reasoner.description": "DeepSeek V3.2 Thinking est un modèle de raisonnement avancé qui génère une chaîne de pensée avant les réponses pour une précision accrue, avec des résultats de compétition de haut niveau et un raisonnement comparable à Gemini-3.0-Pro.", + "deepseek-reasoner.description": "Le mode de réflexion DeepSeek V3.2 produit une chaîne de raisonnement avant la réponse finale pour améliorer la précision.", "deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.", "deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.", "deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.", @@ -491,8 +489,7 @@ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K est un modèle de réflexion rapide avec un contexte de 32K pour le raisonnement complexe et les dialogues multi-tours.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview est une préversion de modèle de réflexion pour l’évaluation et les tests.", "ernie-x1.1.description": "ERNIE X1.1 est un modèle de réflexion en aperçu pour évaluation et test.", - "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, développé par l'équipe Seed de ByteDance, prend en charge l'édition et la composition multi-images. Il offre une meilleure cohérence des sujets, un suivi précis des instructions, une compréhension de la logique spatiale, une expression esthétique, une mise en page de type affiche et une conception de logo avec un rendu texte-image de haute précision.", - "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, développé par ByteDance Seed, prend en charge les entrées texte et image pour une génération d'images de haute qualité et hautement contrôlable à partir d'invites.", + "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 est un modèle de génération d'images de ByteDance Seed, prenant en charge les entrées texte et image avec une génération d'images hautement contrôlable et de haute qualité. Il génère des images à partir de descriptions textuelles.", "fal-ai/flux-kontext/dev.description": "Modèle FLUX.1 axé sur l’édition d’images, prenant en charge les entrées texte et image.", "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepte des textes et des images de référence en entrée, permettant des modifications locales ciblées et des transformations globales complexes de scènes.", "fal-ai/flux/krea.description": "Flux Krea [dev] est un modèle de génération d’images avec une préférence esthétique pour des images plus réalistes et naturelles.", @@ -500,8 +497,8 @@ "fal-ai/hunyuan-image/v3.description": "Un puissant modèle natif multimodal de génération d’images.", "fal-ai/imagen4/preview.description": "Modèle de génération d’images de haute qualité développé par Google.", "fal-ai/nano-banana.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images via la conversation.", - "fal-ai/qwen-image-edit.description": "Un modèle professionnel d'édition d'image de l'équipe Qwen, prenant en charge les modifications sémantiques et d'apparence, l'édition précise de texte en chinois/anglais, le transfert de style, la rotation et bien plus.", - "fal-ai/qwen-image.description": "Un puissant modèle de génération d'images de l'équipe Qwen, avec un excellent rendu du texte en chinois et une grande diversité de styles visuels.", + "fal-ai/qwen-image-edit.description": "Un modèle professionnel d'édition d'images de l'équipe Qwen qui prend en charge les modifications sémantiques et d'apparence, édite précisément le texte en chinois et en anglais, et permet des modifications de haute qualité telles que le transfert de style et la rotation d'objets.", + "fal-ai/qwen-image.description": "Un puissant modèle de génération d'images de l'équipe Qwen avec un rendu impressionnant du texte en chinois et des styles visuels variés.", "flux-1-schnell.description": "Modèle texte-vers-image à 12 milliards de paramètres de Black Forest Labs utilisant la distillation par diffusion latente adversariale pour générer des images de haute qualité en 1 à 4 étapes. Il rivalise avec les alternatives propriétaires et est publié sous licence Apache-2.0 pour un usage personnel, de recherche et commercial.", "flux-dev.description": "FLUX.1 [dev] est un modèle distillé à poids ouverts pour un usage non commercial. Il conserve une qualité d’image proche du niveau professionnel et un bon suivi des instructions tout en étant plus efficace que les modèles standards de taille équivalente.", "flux-kontext-max.description": "Génération et édition d’images contextuelles de pointe, combinant texte et images pour des résultats précis et cohérents.", @@ -532,8 +529,6 @@ "gemini-2.0-flash-lite-001.description": "Une variante de Gemini 2.0 Flash optimisée pour l’efficacité des coûts et la faible latence.", "gemini-2.0-flash-lite.description": "Une variante de Gemini 2.0 Flash optimisée pour l’efficacité des coûts et la faible latence.", "gemini-2.0-flash.description": "Gemini 2.0 Flash offre des fonctionnalités de nouvelle génération, notamment une vitesse exceptionnelle, l’utilisation native d’outils, la génération multimodale et une fenêtre de contexte de 1 million de jetons.", - "gemini-2.5-flash-image-preview.description": "Nano Banana est le modèle multimodal natif le plus récent, rapide et efficace de Google, permettant la génération et l'édition d'images en conversation.", - "gemini-2.5-flash-image-preview:image.description": "Nano Banana est le modèle multimodal natif le plus récent, rapide et efficace de Google, permettant la génération et l'édition d'images en conversation.", "gemini-2.5-flash-image.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images en conversation.", "gemini-2.5-flash-image:image.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et l’édition d’images en conversation.", "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview est le plus petit modèle de Google, offrant le meilleur rapport qualité-prix, conçu pour une utilisation à grande échelle.", @@ -547,10 +542,10 @@ "gemini-2.5-pro.description": "Gemini 2.5 Pro est le modèle de raisonnement phare de Google, avec un support de long contexte pour les tâches complexes.", "gemini-3-flash-preview.description": "Gemini 3 Flash est le modèle le plus intelligent conçu pour la vitesse, alliant intelligence de pointe et ancrage de recherche performant.", "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d'images de Google qui prend également en charge le dialogue multimodal.", - "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d'images de Google, prenant également en charge le chat multimodal.", + "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d'images de Google et prend également en charge le chat multimodal.", "gemini-3-pro-preview.description": "Gemini 3 Pro est le modèle agent et de codage le plus puissant de Google, offrant des visuels enrichis et une interaction plus poussée grâce à un raisonnement de pointe.", "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) est le modèle de génération d'images natif le plus rapide de Google avec prise en charge de la réflexion, génération et édition d'images conversationnelles.", - "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) offre une qualité d'image professionnelle à une vitesse Flash avec prise en charge de la discussion multimodale.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) est le modèle de génération d'images natif le plus rapide de Google avec prise en charge de la réflexion, génération et édition d'images conversationnelles.", "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview améliore Gemini 3 Pro avec des capacités de raisonnement renforcées et ajoute un support de niveau de réflexion moyen.", "gemini-flash-latest.description": "Dernière version de Gemini Flash", "gemini-flash-lite-latest.description": "Dernière version de Gemini Flash-Lite", @@ -692,7 +687,6 @@ "gpt-oss:120b.description": "GPT-OSS 120B est le grand LLM open source d’OpenAI utilisant la quantification MXFP4, positionné comme modèle phare. Il nécessite un environnement multi-GPU ou une station de travail haut de gamme et offre d’excellentes performances en raisonnement complexe, génération de code et traitement multilingue, avec des appels de fonctions avancés et une intégration d’outils.", "gpt-oss:20b.description": "GPT-OSS 20B est un LLM open source d’OpenAI utilisant la quantification MXFP4, adapté aux GPU grand public haut de gamme ou aux Mac Apple Silicon. Il est performant en génération de dialogue, codage et tâches de raisonnement, avec prise en charge des appels de fonctions et de l’utilisation d’outils.", "gpt-realtime.description": "Un modèle général en temps réel prenant en charge les entrées/sorties texte et audio en temps réel, ainsi que les entrées image.", - "grok-2-image-1212.description": "Notre dernier modèle de génération d’images crée des visuels réalistes et vivants à partir d’invites, idéal pour le marketing, les réseaux sociaux et le divertissement.", "grok-2-vision-1212.description": "Précision améliorée, meilleur suivi des instructions et capacités multilingues renforcées.", "grok-3-mini.description": "Un modèle léger qui réfléchit avant de répondre. Rapide et intelligent pour les tâches logiques ne nécessitant pas de connaissances spécialisées, avec accès aux traces de raisonnement brutes.", "grok-3.description": "Un modèle phare performant pour les cas d’usage en entreprise comme l’extraction de données, le codage et la synthèse, avec une expertise approfondie en finance, santé, droit et science.", @@ -1141,7 +1135,11 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking est un modèle multimodal de raisonnement en chaîne pour une analyse visuelle détaillée.", "qwen3-vl-flash.description": "Qwen3 VL Flash : version légère et rapide de raisonnement pour les requêtes sensibles à la latence ou à fort volume.", "qwen3-vl-plus.description": "Qwen VL est un modèle de génération de texte avec compréhension visuelle. Il peut effectuer de l’OCR, résumer, raisonner, extraire des attributs de photos de produits ou résoudre des problèmes à partir d’images.", + "qwen3.5-122b-a10b.description": "Prend en charge les entrées texte, image et vidéo. Pour les tâches uniquement textuelles, ses performances sont comparables à celles de Qwen3 Max, offrant une efficacité supérieure et un coût réduit. En termes de capacités multimodales, il offre des améliorations significatives par rapport à la série Qwen3 VL.", + "qwen3.5-27b.description": "Prend en charge les entrées texte, image et vidéo. Pour les tâches uniquement textuelles, ses performances sont comparables à celles de Qwen3 Max, offrant une efficacité supérieure et un coût réduit. En termes de capacités multimodales, il offre des améliorations significatives par rapport à la série Qwen3 VL.", + "qwen3.5-35b-a3b.description": "Prend en charge les entrées texte, image et vidéo. Pour les tâches uniquement textuelles, ses performances sont comparables à celles de Qwen3 Max, offrant une efficacité supérieure et un coût réduit. En termes de capacités multimodales, il offre des améliorations significatives par rapport à la série Qwen3 VL.", "qwen3.5-397b-a17b.description": "Prend en charge les entrées texte, image et vidéo. Pour les tâches uniquement textuelles, ses performances sont comparables à celles de Qwen3 Max, offrant une efficacité supérieure et un coût inférieur. En termes de capacités multimodales, il offre des améliorations significatives par rapport à la série Qwen3 VL.", + "qwen3.5-flash.description": "Le modèle Qwen le plus rapide et le moins coûteux, idéal pour les tâches simples.", "qwen3.5-plus.description": "Qwen3.5 Plus prend en charge les entrées texte, image et vidéo. Ses performances sur les tâches purement textuelles sont comparables à celles de Qwen3 Max, avec de meilleures performances et un coût réduit. Ses capacités multimodales sont significativement améliorées par rapport à la série Qwen3 VL.", "qwen3.5:397b.description": "Qwen3.5 est un modèle fondamental vision-langage unifié avec une architecture hybride (Mixture-of-Experts + attention linéaire), offrant un raisonnement multimodal puissant, du codage et des capacités de long contexte avec une fenêtre de contexte de 256K.", "qwen3.description": "Qwen3 est le modèle de langage de nouvelle génération d'Alibaba, performant dans de nombreux cas d’usage.", @@ -1151,8 +1149,6 @@ "qwq.description": "QwQ est un modèle de raisonnement de la famille Qwen. Comparé aux modèles classiques ajustés par instruction, il apporte des capacités de réflexion et de raisonnement qui améliorent considérablement les performances en aval, notamment sur les problèmes complexes. QwQ-32B est un modèle de raisonnement de taille moyenne qui rivalise avec les meilleurs modèles comme DeepSeek-R1 et o1-mini.", "qwq_32b.description": "Modèle de raisonnement de taille moyenne de la famille Qwen. Comparé aux modèles classiques ajustés par instruction, les capacités de réflexion et de raisonnement de QwQ améliorent considérablement les performances en aval, notamment sur les problèmes complexes.", "r1-1776.description": "R1-1776 est une variante post-entraînée de DeepSeek R1 conçue pour fournir des informations factuelles non censurées et impartiales.", - "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro de ByteDance prend en charge la génération de texte en vidéo, d'image en vidéo (première image, première + dernière image), ainsi que la génération audio synchronisée avec les visuels.", - "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite de BytePlus propose une génération augmentée par récupération web pour des informations en temps réel, une interprétation améliorée des prompts complexes et une meilleure cohérence des références pour la création visuelle professionnelle.", "solar-mini-ja.description": "Solar Mini (Ja) étend Solar Mini avec un accent sur le japonais tout en maintenant des performances efficaces et solides en anglais et en coréen.", "solar-mini.description": "Solar Mini est un modèle LLM compact surpassant GPT-3.5, avec de solides capacités multilingues en anglais et en coréen, offrant une solution efficace à faible empreinte.", "solar-pro.description": "Solar Pro est un LLM intelligent développé par Upstage, axé sur le suivi d'instructions sur un seul GPU, avec des scores IFEval supérieurs à 80. Il prend actuellement en charge l'anglais ; la version complète est prévue pour novembre 2024 avec un support linguistique élargi et un contexte plus long.", diff --git a/locales/fr-FR/providers.json b/locales/fr-FR/providers.json index 3d3b9999b9..ca69c0eba6 100644 --- a/locales/fr-FR/providers.json +++ b/locales/fr-FR/providers.json @@ -30,7 +30,6 @@ "internlm.description": "Une organisation open source axée sur la recherche et les outils pour les grands modèles, offrant une plateforme efficace et accessible pour les modèles et algorithmes de pointe.", "jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.", "lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.", - "lobehub.description": "LobeHub Cloud utilise les API officielles pour accéder aux modèles d'IA et mesure l'utilisation à l'aide de crédits liés aux jetons des modèles.", "minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.", "mistral.description": "Mistral propose des modèles avancés généralistes, spécialisés et de recherche pour le raisonnement complexe, les tâches multilingues et la génération de code, avec appels de fonctions pour des intégrations personnalisées.", "modelscope.description": "ModelScope est la plateforme de modèles en tant que service d'Alibaba Cloud, offrant un large éventail de modèles d'IA et de services d'inférence.", diff --git a/locales/it-IT/agent.json b/locales/it-IT/agent.json new file mode 100644 index 0000000000..7e785b144d --- /dev/null +++ b/locales/it-IT/agent.json @@ -0,0 +1,34 @@ +{ + "integration.applicationId": "ID dell'applicazione / Nome utente del bot", + "integration.applicationIdPlaceholder": "es. 1234567890", + "integration.botToken": "Token del bot / Chiave API", + "integration.botTokenEncryptedHint": "Il token sarà crittografato e archiviato in modo sicuro.", + "integration.botTokenHowToGet": "Come ottenerlo?", + "integration.botTokenPlaceholderExisting": "Il token è nascosto per motivi di sicurezza", + "integration.botTokenPlaceholderNew": "Incolla qui il token del tuo bot", + "integration.connectionConfig": "Configurazione della connessione", + "integration.copied": "Copiato negli appunti", + "integration.copy": "Copia", + "integration.deleteConfirm": "Sei sicuro di voler rimuovere questa integrazione?", + "integration.disabled": "Disabilitato", + "integration.discord.description": "Collega questo assistente al server Discord per chat di canale e messaggi diretti.", + "integration.documentation": "Documentazione", + "integration.enabled": "Abilitato", + "integration.endpointUrl": "URL del punto di interazione", + "integration.endpointUrlHint": "Copia questo URL e incollalo nel campo \"URL del punto di interazione\" nel portale per sviluppatori di {{name}}.", + "integration.platforms": "Piattaforme", + "integration.publicKey": "Chiave pubblica", + "integration.publicKeyPlaceholder": "Necessaria per la verifica delle interazioni", + "integration.removeFailed": "Impossibile rimuovere l'integrazione", + "integration.removeIntegration": "Rimuovi integrazione", + "integration.removed": "Integrazione rimossa", + "integration.save": "Salva configurazione", + "integration.saveFailed": "Impossibile salvare la configurazione", + "integration.saveFirstWarning": "Salva prima la configurazione", + "integration.saved": "Configurazione salvata con successo", + "integration.testConnection": "Testa connessione", + "integration.testFailed": "Test della connessione fallito", + "integration.testSuccess": "Test della connessione riuscito", + "integration.updateFailed": "Impossibile aggiornare lo stato", + "integration.validationError": "Compila ID dell'applicazione e Token" +} diff --git a/locales/it-IT/chat.json b/locales/it-IT/chat.json index dd7ae6cedf..fb6a3ac989 100644 --- a/locales/it-IT/chat.json +++ b/locales/it-IT/chat.json @@ -336,6 +336,7 @@ "supervisor.todoList.allComplete": "Tutte le attività completate", "supervisor.todoList.title": "Attività completate", "tab.groupProfile": "Profilo gruppo", + "tab.integration": "Integrazione", "tab.profile": "Profilo agente", "tab.search": "Cerca", "task.activity.calling": "Chiamata Skill...", diff --git a/locales/it-IT/common.json b/locales/it-IT/common.json index b56384187f..14ce1036b0 100644 --- a/locales/it-IT/common.json +++ b/locales/it-IT/common.json @@ -209,7 +209,6 @@ "delete": "Elimina", "document": "Manuale utente", "download": "Scarica", - "downloadClient": "Scarica client", "duplicate": "Duplica", "edit": "Modifica", "errors.invalidFileFormat": "Formato file non valido", @@ -256,6 +255,7 @@ "footer.star.title": "Metti una stella su GitHub", "footer.title": "Ti piace il nostro prodotto?", "fullscreen": "Modalità schermo intero", + "getDesktopApp": "Scarica l'app desktop", "historyRange": "Intervallo cronologia", "home.suggestQuestions": "Prova questi esempi", "import": "Importa", diff --git a/locales/it-IT/models.json b/locales/it-IT/models.json index b82eba1ac2..c72380c2ab 100644 --- a/locales/it-IT/models.json +++ b/locales/it-IT/models.json @@ -77,10 +77,8 @@ "MiniMax-M1.description": "Nuovo modello di ragionamento proprietario con 80K chain-of-thought e 1M di input, con prestazioni comparabili ai migliori modelli globali.", "MiniMax-M2-Stable.description": "Progettato per flussi di lavoro di codifica e agenti efficienti, con maggiore concorrenza per l'uso commerciale.", "MiniMax-M2.1-Lightning.description": "Potenti capacità di programmazione multilingue e un'esperienza di sviluppo completamente rinnovata. Più veloce ed efficiente.", - "MiniMax-M2.1-highspeed.description": "Potenti capacità di programmazione multilingue con inferenza più veloce ed efficiente.", "MiniMax-M2.1.description": "MiniMax-M2.1 è un modello open-source di punta di MiniMax, progettato per affrontare compiti complessi del mondo reale. I suoi punti di forza principali sono le capacità di programmazione multilingue e la risoluzione di compiti complessi come agente.", "MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Stessa prestazione, più veloce e agile (circa 100 tps).", - "MiniMax-M2.5-highspeed.description": "Stessa prestazione del M2.5 con inferenza significativamente più veloce.", "MiniMax-M2.5.description": "MiniMax-M2.5 è un modello open-source di punta di MiniMax, focalizzato sulla risoluzione di compiti complessi del mondo reale. I suoi punti di forza principali sono le capacità di programmazione multilingue e la capacità di risolvere compiti complessi come un Agente.", "MiniMax-M2.description": "Progettato specificamente per una programmazione efficiente e flussi di lavoro con agenti", "MiniMax-Text-01.description": "MiniMax-01 introduce l'attenzione lineare su larga scala oltre i Transformer classici, con 456B parametri e 45,9B attivati per passaggio. Raggiunge prestazioni di alto livello e supporta fino a 4M token di contesto (32× GPT-4o, 20× Claude-3.5-Sonnet).", @@ -283,9 +281,9 @@ "chatgpt-4o-latest.description": "ChatGPT-4o è un modello dinamico aggiornato in tempo reale. Combina una forte comprensione e generazione del linguaggio per casi d'uso su larga scala come assistenza clienti, educazione e supporto tecnico.", "claude-2.0.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.", "claude-2.1.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.", - "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic, con miglioramenti in diverse competenze e prestazioni superiori rispetto al precedente modello di punta Claude 3 Opus in numerosi benchmark.", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic. Rispetto a Claude 3 Haiku, migliora in tutte le competenze e supera il precedente modello più grande, Claude 3 Opus, in molti benchmark di intelligenza.", "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fornisce risposte rapide per attività leggere.", - "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato, in grado di offrire risposte quasi istantanee o riflessioni prolungate con un controllo preciso.", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato. Può produrre risposte quasi istantanee o ragionamenti estesi passo dopo passo visibili agli utenti. Sonnet è particolarmente forte in programmazione, data science, visione e compiti per agenti.", "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet è il modello più recente e avanzato di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.", "claude-3-haiku-20240307.description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee con prestazioni rapide e accurate.", "claude-3-opus-20240229.description": "Claude 3 Opus è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.", @@ -293,16 +291,16 @@ "claude-3.5-sonnet.description": "Claude 3.5 Sonnet eccelle nella programmazione, nella scrittura e nel ragionamento complesso.", "claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet con capacità di pensiero esteso per compiti di ragionamento complesso.", "claude-3.7-sonnet.description": "Claude 3.7 Sonnet è una versione aggiornata con contesto e funzionalità estese.", - "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con una velocità fulminea e capacità di pensiero esteso.", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e ragionamento esteso.", "claude-haiku-4.5.description": "Claude Haiku 4.5 è un modello veloce ed efficiente per una varietà di compiti.", "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking è una variante avanzata in grado di mostrare il proprio processo di ragionamento.", - "claude-opus-4-1-20250805.description": "Claude Opus 4.1 è l'ultimo e più avanzato modello di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.", + "claude-opus-4-1-20250805.description": "Claude Opus 4.1 è l'ultimo e più capace modello di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.", "claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.", "claude-opus-4-5-20251101.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza eccezionale e prestazioni scalabili, ideale per compiti complessi che richiedono risposte e ragionamenti di altissima qualità.", "claude-opus-4-6.description": "Claude Opus 4.6 è il modello più intelligente di Anthropic per la creazione di agenti e la programmazione.", "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking può produrre risposte quasi istantanee o riflessioni estese passo dopo passo con processo visibile.", - "claude-sonnet-4-20250514.description": "Claude Sonnet 4 è il modello più intelligente mai realizzato da Anthropic, offrendo risposte quasi istantanee o ragionamenti passo dopo passo con controllo dettagliato per gli utenti API.", - "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente mai realizzato da Anthropic.", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4 può produrre risposte quasi istantanee o ragionamenti estesi passo dopo passo con un processo visibile.", + "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente mai creato da Anthropic.", "claude-sonnet-4-6.description": "Claude Sonnet 4.6 è la migliore combinazione di velocità e intelligenza di Anthropic.", "claude-sonnet-4.description": "Claude Sonnet 4 è la generazione più recente con prestazioni migliorate in tutti i compiti.", "codegeex-4.description": "CodeGeeX-4 è un potente assistente di codifica AI che supporta Q&A multilingue e completamento del codice per aumentare la produttività degli sviluppatori.", @@ -373,7 +371,7 @@ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.", "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 è un modello di ragionamento di nuova generazione con capacità avanzate di ragionamento complesso e catena di pensiero.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 è un modello visione-linguaggio MoE basato su DeepSeekMoE-27B con attivazione sparsa, che raggiunge prestazioni elevate con solo 4,5B di parametri attivi. Eccelle in QA visivo, OCR, comprensione di documenti/tabelle/grafici e grounding visivo.", - "deepseek-chat.description": "DeepSeek V3.2 bilancia ragionamento e lunghezza delle risposte per attività quotidiane di QA e agenti. I benchmark pubblici raggiungono livelli paragonabili a GPT-5 ed è il primo a integrare il pensiero nell'uso degli strumenti, guidando le valutazioni open-source degli agenti.", + "deepseek-chat.description": "Un nuovo modello open-source che combina capacità generali e di programmazione. Preserva il dialogo generale del modello di chat e la forte programmazione del modello coder, con un migliore allineamento delle preferenze. DeepSeek-V2.5 migliora anche la scrittura e il seguire le istruzioni.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B è un modello linguistico per il codice addestrato su 2 trilioni di token (87% codice, 13% testo in cinese/inglese). Introduce una finestra di contesto da 16K e compiti di completamento intermedio, offrendo completamento di codice a livello di progetto e riempimento di snippet.", "deepseek-coder-v2.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.", "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.", @@ -396,7 +394,7 @@ "deepseek-r1-fast-online.description": "DeepSeek R1 versione completa veloce con ricerca web in tempo reale, che combina capacità su scala 671B e risposte rapide.", "deepseek-r1-online.description": "DeepSeek R1 versione completa con 671 miliardi di parametri e ricerca web in tempo reale, che offre una comprensione e generazione più avanzate.", "deepseek-r1.description": "DeepSeek-R1 utilizza dati cold-start prima dell'RL e ottiene prestazioni comparabili a OpenAI-o1 in matematica, programmazione e ragionamento.", - "deepseek-reasoner.description": "DeepSeek V3.2 Thinking è un modello di ragionamento profondo che genera catene di pensiero prima delle risposte per una maggiore accuratezza, con risultati competitivi di alto livello e capacità di ragionamento comparabili a Gemini-3.0-Pro.", + "deepseek-reasoner.description": "La modalità di pensiero DeepSeek V3.2 genera una catena di ragionamenti prima della risposta finale per migliorare l'accuratezza.", "deepseek-v2.description": "DeepSeek V2 è un modello MoE efficiente per un'elaborazione conveniente.", "deepseek-v2:236b.description": "DeepSeek V2 236B è il modello DeepSeek focalizzato sul codice con forte capacità di generazione.", "deepseek-v3-0324.description": "DeepSeek-V3-0324 è un modello MoE con 671 miliardi di parametri, con punti di forza nella programmazione, capacità tecnica, comprensione del contesto e gestione di testi lunghi.", @@ -491,8 +489,7 @@ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K è un modello di pensiero veloce con contesto da 32K per ragionamento complesso e chat multi-turno.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview è un’anteprima del modello di pensiero per valutazioni e test.", "ernie-x1.1.description": "ERNIE X1.1 è un'anteprima del modello di pensiero per valutazione e test.", - "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, sviluppato dal team Seed di ByteDance, supporta l'editing e la composizione multi-immagine. Offre coerenza del soggetto migliorata, esecuzione precisa delle istruzioni, comprensione della logica spaziale, espressione estetica, layout per poster e design di loghi con rendering testo-immagine ad alta precisione.", - "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, sviluppato da ByteDance Seed, supporta input di testo e immagini per una generazione di immagini altamente controllabile e di alta qualità a partire da prompt.", + "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input di testo e immagini con generazione di immagini altamente controllabile e di alta qualità. Genera immagini da prompt testuali.", "fal-ai/flux-kontext/dev.description": "FLUX.1 è un modello focalizzato sull’editing di immagini, che supporta input di testo e immagini.", "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accetta testo e immagini di riferimento come input, consentendo modifiche locali mirate e trasformazioni complesse della scena globale.", "fal-ai/flux/krea.description": "Flux Krea [dev] è un modello di generazione di immagini con una preferenza estetica per immagini più realistiche e naturali.", @@ -500,8 +497,8 @@ "fal-ai/hunyuan-image/v3.description": "Un potente modello nativo multimodale per la generazione di immagini.", "fal-ai/imagen4/preview.description": "Modello di generazione di immagini di alta qualità sviluppato da Google.", "fal-ai/nano-banana.description": "Nano Banana è il modello multimodale nativo più recente, veloce ed efficiente di Google, che consente la generazione e l’editing di immagini tramite conversazione.", - "fal-ai/qwen-image-edit.description": "Un modello professionale di editing immagini del team Qwen, che supporta modifiche semantiche e visive, editing preciso di testo in cinese/inglese, trasferimento di stile, rotazione e altro ancora.", - "fal-ai/qwen-image.description": "Un potente modello di generazione di immagini del team Qwen, con eccellente resa del testo in cinese e una vasta gamma di stili visivi.", + "fal-ai/qwen-image-edit.description": "Un modello professionale di modifica delle immagini del team Qwen che supporta modifiche semantiche e di aspetto, modifica con precisione testo in cinese e inglese, e consente modifiche di alta qualità come trasferimento di stile e rotazione di oggetti.", + "fal-ai/qwen-image.description": "Un potente modello di generazione di immagini del team Qwen con impressionante rendering di testo in cinese e stili visivi diversificati.", "flux-1-schnell.description": "Modello testo-immagine da 12 miliardi di parametri di Black Forest Labs che utilizza la distillazione latente avversariale per generare immagini di alta qualità in 1-4 passaggi. Con licenza Apache-2.0 per uso personale, di ricerca e commerciale.", "flux-dev.description": "FLUX.1 [dev] è un modello distillato a pesi aperti per uso non commerciale. Mantiene una qualità d’immagine quasi professionale e capacità di seguire istruzioni, con maggiore efficienza rispetto ai modelli standard di pari dimensioni.", "flux-kontext-max.description": "Generazione ed editing di immagini contestuali all’avanguardia, combinando testo e immagini per risultati precisi e coerenti.", @@ -532,8 +529,6 @@ "gemini-2.0-flash-lite-001.description": "Una variante di Gemini 2.0 Flash ottimizzata per efficienza dei costi e bassa latenza.", "gemini-2.0-flash-lite.description": "Una variante di Gemini 2.0 Flash ottimizzata per efficienza dei costi e bassa latenza.", "gemini-2.0-flash.description": "Gemini 2.0 Flash offre funzionalità di nuova generazione tra cui velocità eccezionale, uso nativo di strumenti, generazione multimodale e una finestra di contesto da 1 milione di token.", - "gemini-2.5-flash-image-preview.description": "Nano Banana è il modello multimodale nativo più recente, veloce ed efficiente di Google, che consente la generazione e l'editing di immagini in modo conversazionale.", - "gemini-2.5-flash-image-preview:image.description": "Nano Banana è il modello multimodale nativo più recente, veloce ed efficiente di Google, che consente la generazione e l'editing di immagini in modo conversazionale.", "gemini-2.5-flash-image.description": "Nano Banana è il più recente, veloce ed efficiente modello multimodale nativo di Google, che consente la generazione e modifica di immagini in conversazione.", "gemini-2.5-flash-image:image.description": "Nano Banana è il più recente, veloce ed efficiente modello multimodale nativo di Google, che consente la generazione e modifica di immagini in conversazione.", "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview è il modello più piccolo e conveniente di Google, progettato per l’uso su larga scala.", @@ -550,7 +545,7 @@ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google e supporta anche la chat multimodale.", "gemini-3-pro-preview.description": "Gemini 3 Pro è il modello più potente di Google per agenti e codifica creativa, offrendo visuali più ricche e interazioni più profonde grazie a un ragionamento all'avanguardia.", "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) è il modello di generazione di immagini nativo più veloce di Google con supporto al pensiero, generazione e modifica di immagini conversazionali.", - "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) offre una qualità d'immagine di livello professionale a velocità Flash con supporto per chat multimodale.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) è il modello di generazione di immagini nativo più veloce di Google con supporto al pensiero, generazione e modifica di immagini conversazionali.", "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview migliora Gemini 3 Pro con capacità di ragionamento avanzate e aggiunge supporto per un livello di pensiero medio.", "gemini-flash-latest.description": "Ultima versione di Gemini Flash", "gemini-flash-lite-latest.description": "Ultima versione di Gemini Flash-Lite", @@ -692,7 +687,6 @@ "gpt-oss:120b.description": "GPT-OSS 120B è il grande LLM open-source di OpenAI che utilizza la quantizzazione MXFP4 ed è posizionato come modello di punta. Richiede ambienti multi-GPU o workstation di fascia alta e offre prestazioni eccellenti in ragionamento complesso, generazione di codice ed elaborazione multilingue, con chiamata di funzioni avanzata e integrazione di strumenti.", "gpt-oss:20b.description": "GPT-OSS 20B è un LLM open-source di OpenAI che utilizza la quantizzazione MXFP4, adatto a GPU consumer di fascia alta o Mac con Apple Silicon. Offre buone prestazioni in generazione di dialoghi, programmazione e compiti di ragionamento, supportando chiamata di funzioni e uso di strumenti.", "gpt-realtime.description": "Un modello generale in tempo reale che supporta input/output testuale e audio in tempo reale, oltre all’input di immagini.", - "grok-2-image-1212.description": "Il nostro più recente modello di generazione di immagini crea immagini vivide e realistiche da prompt, eccellendo in ambiti come marketing, social media e intrattenimento.", "grok-2-vision-1212.description": "Miglioramenti in accuratezza, rispetto delle istruzioni e capacità multilingue.", "grok-3-mini.description": "Un modello leggero che riflette prima di rispondere. È veloce e intelligente per compiti logici che non richiedono conoscenze specialistiche, con accesso a tracce di ragionamento grezze.", "grok-3.description": "Un modello di punta che eccelle in casi d'uso aziendali come estrazione dati, programmazione e sintesi, con profonda conoscenza nei settori finanziario, sanitario, legale e scientifico.", @@ -1141,7 +1135,11 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking è un modello multimodale con catena di pensiero per ragionamento visivo dettagliato.", "qwen3-vl-flash.description": "Qwen3 VL Flash: versione leggera e ad alta velocità per richieste sensibili alla latenza o ad alto volume.", "qwen3-vl-plus.description": "Qwen VL è un modello di generazione testuale con comprensione visiva. Può eseguire OCR, riassumere e ragionare, ad esempio estraendo attributi da foto di prodotti o risolvendo problemi da immagini.", + "qwen3.5-122b-a10b.description": "Supporta input di testo, immagini e video. Per compiti solo testuali, le sue prestazioni sono comparabili a Qwen3 Max, offrendo maggiore efficienza e costi inferiori. Nelle capacità multimodali, offre miglioramenti significativi rispetto alla serie Qwen3 VL.", + "qwen3.5-27b.description": "Supporta input di testo, immagini e video. Per compiti solo testuali, le sue prestazioni sono comparabili a Qwen3 Max, offrendo maggiore efficienza e costi inferiori. Nelle capacità multimodali, offre miglioramenti significativi rispetto alla serie Qwen3 VL.", + "qwen3.5-35b-a3b.description": "Supporta input di testo, immagini e video. Per compiti solo testuali, le sue prestazioni sono comparabili a Qwen3 Max, offrendo maggiore efficienza e costi inferiori. Nelle capacità multimodali, offre miglioramenti significativi rispetto alla serie Qwen3 VL.", "qwen3.5-397b-a17b.description": "Supporta input di testo, immagini e video. Per compiti solo testuali, le sue prestazioni sono paragonabili a Qwen3 Max, offrendo maggiore efficienza e costi inferiori. Nelle capacità multimodali, offre miglioramenti significativi rispetto alla serie Qwen3 VL.", + "qwen3.5-flash.description": "Il modello Qwen più veloce e a costo più basso, ideale per compiti semplici.", "qwen3.5-plus.description": "Qwen3.5 Plus supporta input di testo, immagini e video. Le sue prestazioni nei compiti di solo testo sono paragonabili a Qwen3 Max, con migliori prestazioni e costi inferiori. Le sue capacità multimodali sono significativamente migliorate rispetto alla serie Qwen3 VL.", "qwen3.5:397b.description": "Qwen3.5 è un modello di base visione-linguaggio unificato con un'architettura ibrida (Mixture-of-Experts + attenzione lineare), che offre un forte ragionamento multimodale, codifica e capacità di lungo contesto con una finestra di contesto di 256K.", "qwen3.description": "Qwen3 è il modello linguistico di nuova generazione di Alibaba, con prestazioni elevate in una vasta gamma di casi d’uso.", @@ -1151,8 +1149,6 @@ "qwq.description": "QwQ è un modello di ragionamento della famiglia Qwen. Rispetto ai modelli standard ottimizzati per istruzioni, offre capacità di pensiero e ragionamento che migliorano significativamente le prestazioni nei compiti difficili. QwQ-32B è un modello di medie dimensioni che compete con i migliori modelli di ragionamento come DeepSeek-R1 e o1-mini.", "qwq_32b.description": "Modello di ragionamento di medie dimensioni della famiglia Qwen. Rispetto ai modelli standard ottimizzati per istruzioni, le capacità di pensiero e ragionamento di QwQ migliorano significativamente le prestazioni nei compiti difficili.", "r1-1776.description": "R1-1776 è una variante post-addestrata di DeepSeek R1 progettata per fornire informazioni fattuali non censurate e imparziali.", - "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro di ByteDance supporta la generazione da testo a video, da immagine a video (primo fotogramma, primo+ultimo fotogramma) e la generazione audio sincronizzata con i contenuti visivi.", - "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite di BytePlus presenta una generazione aumentata dal recupero web per informazioni in tempo reale, un'interpretazione migliorata di prompt complessi e una maggiore coerenza di riferimento per la creazione visiva professionale.", "solar-mini-ja.description": "Solar Mini (Ja) estende Solar Mini con un focus sul giapponese, mantenendo prestazioni efficienti e solide in inglese e coreano.", "solar-mini.description": "Solar Mini è un LLM compatto che supera GPT-3.5, con forte capacità multilingue in inglese e coreano, offrendo una soluzione efficiente e leggera.", "solar-pro.description": "Solar Pro è un LLM ad alta intelligenza di Upstage, focalizzato sull’esecuzione di istruzioni su una singola GPU, con punteggi IFEval superiori a 80. Attualmente supporta l’inglese; il rilascio completo è previsto per novembre 2024 con supporto linguistico ampliato e contesto più lungo.", diff --git a/locales/it-IT/providers.json b/locales/it-IT/providers.json index 0ef68c6e69..c3ecda030b 100644 --- a/locales/it-IT/providers.json +++ b/locales/it-IT/providers.json @@ -30,7 +30,6 @@ "internlm.description": "Un'organizzazione open-source focalizzata sulla ricerca e gli strumenti per modelli di grandi dimensioni, che offre una piattaforma efficiente e facile da usare per rendere accessibili modelli e algoritmi all'avanguardia.", "jina.description": "Fondata nel 2020, Jina AI è un'azienda leader nell'AI per la ricerca. Il suo stack include modelli vettoriali, reranker e piccoli modelli linguistici per costruire app di ricerca generativa e multimodale affidabili e di alta qualità.", "lmstudio.description": "LM Studio è un'app desktop per sviluppare e sperimentare con LLM direttamente sul tuo computer.", - "lobehub.description": "LobeHub Cloud utilizza API ufficiali per accedere ai modelli di intelligenza artificiale e misura l'utilizzo tramite Crediti legati ai token del modello.", "minimax.description": "Fondata nel 2021, MiniMax sviluppa AI generali con modelli fondamentali multimodali, inclusi modelli testuali MoE da trilioni di parametri, modelli vocali e visivi, oltre ad app come Hailuo AI.", "mistral.description": "Mistral offre modelli avanzati generali, specializzati e di ricerca per ragionamento complesso, compiti multilingue e generazione di codice, con supporto per chiamate di funzione per integrazioni personalizzate.", "modelscope.description": "ModelScope è la piattaforma di modelli-as-a-service di Alibaba Cloud, che offre un'ampia gamma di modelli AI e servizi di inferenza.", diff --git a/locales/ja-JP/agent.json b/locales/ja-JP/agent.json new file mode 100644 index 0000000000..45e9efef26 --- /dev/null +++ b/locales/ja-JP/agent.json @@ -0,0 +1,34 @@ +{ + "integration.applicationId": "アプリケーションID / ボットユーザー名", + "integration.applicationIdPlaceholder": "例: 1234567890", + "integration.botToken": "ボットトークン / APIキー", + "integration.botTokenEncryptedHint": "トークンは暗号化され、安全に保存されます。", + "integration.botTokenHowToGet": "取得方法は?", + "integration.botTokenPlaceholderExisting": "セキュリティのためトークンは非表示です", + "integration.botTokenPlaceholderNew": "ここにボットトークンを貼り付けてください", + "integration.connectionConfig": "接続設定", + "integration.copied": "クリップボードにコピーしました", + "integration.copy": "コピー", + "integration.deleteConfirm": "この統合を削除してもよろしいですか?", + "integration.disabled": "無効", + "integration.discord.description": "このアシスタントをDiscordサーバーに接続して、チャンネルチャットやダイレクトメッセージを利用できます。", + "integration.documentation": "ドキュメント", + "integration.enabled": "有効", + "integration.endpointUrl": "インタラクションエンドポイントURL", + "integration.endpointUrlHint": "このURLをコピーして、{{name}}開発者ポータルの「インタラクションエンドポイントURL」フィールドに貼り付けてください。", + "integration.platforms": "プラットフォーム", + "integration.publicKey": "公開鍵", + "integration.publicKeyPlaceholder": "インタラクション検証に必要", + "integration.removeFailed": "統合の削除に失敗しました", + "integration.removeIntegration": "統合を削除", + "integration.removed": "統合が削除されました", + "integration.save": "設定を保存", + "integration.saveFailed": "設定の保存に失敗しました", + "integration.saveFirstWarning": "まず設定を保存してください", + "integration.saved": "設定が正常に保存されました", + "integration.testConnection": "接続をテスト", + "integration.testFailed": "接続テストに失敗しました", + "integration.testSuccess": "接続テストに成功しました", + "integration.updateFailed": "ステータスの更新に失敗しました", + "integration.validationError": "アプリケーションIDとトークンを入力してください" +} diff --git a/locales/ja-JP/chat.json b/locales/ja-JP/chat.json index 7a2ae2e196..0e26adcd94 100644 --- a/locales/ja-JP/chat.json +++ b/locales/ja-JP/chat.json @@ -336,6 +336,7 @@ "supervisor.todoList.allComplete": "すべてのタスクが完了しました", "supervisor.todoList.title": "タスク完了", "tab.groupProfile": "グループプロフィール", + "tab.integration": "統合", "tab.profile": "アシスタントプロフィール", "tab.search": "検索", "task.activity.calling": "スキルを呼び出し中…", diff --git a/locales/ja-JP/common.json b/locales/ja-JP/common.json index 93fcafa86f..4ade3ca150 100644 --- a/locales/ja-JP/common.json +++ b/locales/ja-JP/common.json @@ -209,7 +209,6 @@ "delete": "削除", "document": "ドキュメント", "download": "ダウンロード", - "downloadClient": "クライアントをダウンロード", "duplicate": "コピーを作成", "edit": "編集", "errors.invalidFileFormat": "ファイルフォーマットエラー", @@ -256,6 +255,7 @@ "footer.star.title": "GitHub でスターを付ける", "footer.title": "製品は気に入りましたか?", "fullscreen": "全画面モード", + "getDesktopApp": "デスクトップアプリを入手", "historyRange": "履歴範囲", "home.suggestQuestions": "次の例をお試しください", "import": "インポート", diff --git a/locales/ja-JP/models.json b/locales/ja-JP/models.json index e67d0aa739..18a76ba0ed 100644 --- a/locales/ja-JP/models.json +++ b/locales/ja-JP/models.json @@ -77,10 +77,8 @@ "MiniMax-M1.description": "80Kの思考連鎖と1Mの入力を備えた新しい社内推論モデルで、世界トップクラスのモデルに匹敵する性能を発揮します。", "MiniMax-M2-Stable.description": "効率的なコーディングとエージェントワークフローのために設計され、商用利用における高い同時実行性を実現します。", "MiniMax-M2.1-Lightning.description": "強力な多言語プログラミング機能を備え、プログラミング体験を全面的にアップグレード。より高速かつ効率的に。", - "MiniMax-M2.1-highspeed.description": "強力な多言語プログラミング機能を備え、より高速かつ効率的な推論を実現。", "MiniMax-M2.1.description": "MiniMax-M2.1は、MiniMaxが開発したフラッグシップのオープンソース大規模モデルで、複雑な現実世界のタスク解決に特化しています。多言語プログラミング能力とエージェントとしての高度なタスク処理能力が主な強みです。", "MiniMax-M2.5-Lightning.description": "M2.5 Lightning: 同じ性能で、より高速かつ機敏(約100 tps)。", - "MiniMax-M2.5-highspeed.description": "M2.5と同じ性能で、推論速度が大幅に向上。", "MiniMax-M2.5.description": "MiniMax-M2.5は、MiniMaxによるフラッグシップのオープンソース大規模モデルで、複雑な現実世界のタスクを解決することに焦点を当てています。その主な強みは、多言語プログラミング能力とエージェントとして複雑なタスクを解決する能力です。", "MiniMax-M2.description": "効率的なコーディングとエージェントワークフローのために特化して設計されたモデル", "MiniMax-Text-01.description": "MiniMax-01は、従来のTransformerを超える大規模な線形アテンションを導入し、4560億のパラメータと1パスあたり45.9億のアクティブパラメータを持ちます。最大400万トークンのコンテキストをサポートし(GPT-4oの32倍、Claude-3.5-Sonnetの20倍)、最高水準の性能を実現します。", @@ -283,9 +281,9 @@ "chatgpt-4o-latest.description": "ChatGPT-4oはリアルタイムで更新される動的モデルです。強力な言語理解と生成能力を組み合わせ、カスタマーサポート、教育、技術支援などの大規模なユースケースに対応します。", "claude-2.0.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。", "claude-2.1.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。", - "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku は、Anthropic による次世代モデルの中で最も高速であり、さまざまなスキルにおいて向上し、従来のフラッグシップモデル Claude 3 Opus を多くのベンチマークで上回ります。", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haikuは、Anthropicの次世代モデルの中で最速です。Claude 3 Haikuと比較して、スキル全般で向上し、以前の最大モデルClaude 3 Opusを多くの知能ベンチマークで上回ります。", "claude-3-5-haiku-latest.description": "Claude 3.5 Haikuは、軽量タスク向けに高速な応答を提供します。", - "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 は、Anthropic による最も知的なモデルであり、市場初のハイブリッド推論モデルです。瞬時の応答と段階的な深い思考を細かく制御しながら実現します。", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnetは、Anthropicの最も知的なモデルであり、市場初のハイブリッド推論モデルです。瞬時の応答や、ユーザーが確認できる段階的な推論を生成することができます。Sonnetは特にコーディング、データサイエンス、ビジョン、エージェントタスクに強みを持っています。", "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnetは、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。", "claude-3-haiku-20240307.description": "Claude 3 Haikuは、Anthropicの最速かつ最小のモデルで、即時応答と高速かつ正確な性能を実現するよう設計されています。", "claude-3-opus-20240229.description": "Claude 3 Opusは、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。", @@ -293,17 +291,17 @@ "claude-3.5-sonnet.description": "Claude 3.5 Sonnet は、コーディング、ライティング、複雑な推論に優れたモデルです。", "claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet は、複雑な推論タスクに対応するために思考能力を拡張したモデルです。", "claude-3.7-sonnet.description": "Claude 3.7 Sonnet は、コンテキストと機能が強化されたアップグレード版です。", - "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 は、Anthropic による最速かつ最も知的な Haiku モデルであり、驚異的なスピードと深い思考能力を兼ね備えています。", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5は、Anthropicの最速かつ最も賢いHaikuモデルで、驚異的な速度と拡張された推論能力を備えています。", "claude-haiku-4.5.description": "Claude Haiku 4.5 は、さまざまなタスクに対応する高速かつ効率的なモデルです。", "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinkingは、推論プロセスを可視化できる高度なバリアントです。", - "claude-opus-4-1-20250805.description": "Claude Opus 4.1 は、Anthropic による最新かつ最も高性能なモデルであり、極めて複雑なタスクにおいて卓越したパフォーマンス、知性、流暢さ、理解力を発揮します。", - "claude-opus-4-20250514.description": "Claude Opus 4 は、Anthropic による最も強力なモデルであり、極めて複雑なタスクにおいて卓越したパフォーマンス、知性、流暢さ、理解力を発揮します。", + "claude-opus-4-1-20250805.description": "Claude Opus 4.1は、Anthropicの最新かつ最も高度なモデルで、非常に複雑なタスクにおいて卓越した性能、知能、流暢さ、理解力を発揮します。", + "claude-opus-4-20250514.description": "Claude Opus 4は、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知能、流暢さ、理解力を発揮します。", "claude-opus-4-5-20251101.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、卓越した知性とスケーラブルな性能を兼ね備え、最高品質の応答と推論が求められる複雑なタスクに最適です。", - "claude-opus-4-6.description": "Claude Opus 4.6 は、エージェント構築やコーディングに最適な、Anthropic による最も知的なモデルです。", + "claude-opus-4-6.description": "Claude Opus 4.6は、エージェント構築やコーディングにおいてAnthropicの最も知的なモデルです。", "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinkingは、即時応答または段階的な思考プロセスを可視化しながら出力できます。", - "claude-sonnet-4-20250514.description": "Claude Sonnet 4 は、Anthropic によるこれまでで最も知的なモデルであり、API ユーザー向けに瞬時の応答または段階的な思考を細かく制御しながら提供します。", - "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 は、Anthropic によるこれまでで最も知的なモデルです。", - "claude-sonnet-4-6.description": "Claude Sonnet 4.6は、Anthropicが提供するスピードと知性の最適な組み合わせ。", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4は、瞬時の応答や、プロセスが見える段階的な思考を生成することができます。", + "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5は、これまでで最も知的なAnthropicモデルです。", + "claude-sonnet-4-6.description": "Claude Sonnet 4.6は、速度と知能の最適な組み合わせを備えたモデルです。", "claude-sonnet-4.description": "Claude Sonnet 4 は、あらゆるタスクにおいて性能が向上した最新世代のモデルです。", "codegeex-4.description": "CodeGeeX-4は、開発者の生産性を向上させる多言語対応のAIコーディングアシスタントで、Q&Aやコード補完をサポートします。", "codegeex4-all-9b.description": "CodeGeeX4-ALL-9Bは、多言語コード生成モデルで、コード補完、生成、インタープリタ、Web検索、関数呼び出し、リポジトリレベルのQ&Aなど、幅広いソフトウェア開発シナリオに対応します。10B未満のパラメータで最高クラスのコードモデルです。", @@ -373,7 +371,7 @@ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。", "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2は次世代推論モデルで、複雑な推論と連鎖的思考能力が強化されています。", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 は DeepSeekMoE-27B をベースにした MoE 視覚言語モデルで、スパースアクティベーションにより、4.5B のアクティブパラメータで高性能を実現しています。視覚 QA、OCR、文書・表・チャート理解、視覚的グラウンディングに優れています。", - "deepseek-chat.description": "DeepSeek V3.2 は、日常的な質問応答やエージェントタスクにおいて、推論力と出力の長さのバランスを実現します。公開ベンチマークでは GPT-5 レベルに達し、ツール使用に思考を統合した初のモデルとして、オープンソースエージェント評価で高評価を得ています。", + "deepseek-chat.description": "一般的な対話能力とコーディング能力を組み合わせた新しいオープンソースモデルです。チャットモデルの一般的な対話能力とコーダーモデルの強力なコーディング能力を保持し、より良い嗜好調整を実現しています。DeepSeek-V2.5は、執筆や指示の追従能力も向上しています。", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B は 2T トークン(コード 87%、中英テキスト 13%)で学習されたコード言語モデルです。16K のコンテキストウィンドウと Fill-in-the-Middle タスクを導入し、プロジェクトレベルのコード補完とスニペット補完を提供します。", "deepseek-coder-v2.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。", "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。", @@ -396,7 +394,7 @@ "deepseek-r1-fast-online.description": "DeepSeek R1 高速フルバージョンは、リアルタイムのウェブ検索を搭載し、671Bスケールの能力と高速応答を両立します。", "deepseek-r1-online.description": "DeepSeek R1 フルバージョンは、671Bパラメータとリアルタイムのウェブ検索を備え、より強力な理解と生成を提供します。", "deepseek-r1.description": "DeepSeek-R1は、強化学習前にコールドスタートデータを使用し、数学、コーディング、推論においてOpenAI-o1と同等の性能を発揮します。", - "deepseek-reasoner.description": "DeepSeek V3.2 Thinking は、出力前に思考の連鎖(Chain-of-Thought)を生成することで高精度を実現する深い推論モデルであり、競合モデルの中でもトップクラスの結果を出し、Gemini-3.0-Pro に匹敵する推論力を持ちます。", + "deepseek-reasoner.description": "DeepSeek V3.2の思考モードは、最終回答の前に思考の連鎖を出力し、精度を向上させます。", "deepseek-v2.description": "DeepSeek V2は、コスト効率の高い処理を実現する効率的なMoEモデルです。", "deepseek-v2:236b.description": "DeepSeek V2 236Bは、コード生成に特化したDeepSeekのモデルで、強力なコード生成能力を持ちます。", "deepseek-v3-0324.description": "DeepSeek-V3-0324は、671BパラメータのMoEモデルで、プログラミングや技術的能力、文脈理解、長文処理において優れた性能を発揮します。", @@ -491,8 +489,7 @@ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K は、複雑な推論やマルチターン対話に対応した 32K コンテキストの高速思考モデルです。", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview は、評価およびテスト用の思考モデルプレビューです。", "ernie-x1.1.description": "ERNIE X1.1は評価とテスト用の思考モデルプレビューです。", - "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5 は、ByteDance の Seed チームによって開発されたモデルで、複数画像の編集と合成に対応。被写体の一貫性、指示の正確な追従、空間的論理の理解、美的表現、ポスターレイアウトやロゴデザインなど、高精度なテキストと画像のレンダリングを実現します。", - "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 は、ByteDance の Seed チームによって開発され、テキストと画像の入力に対応し、プロンプトから高品質かつ高い制御性を持つ画像生成を可能にします。", + "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0は、ByteDance Seedによる画像生成モデルで、テキストと画像入力をサポートし、高度に制御可能で高品質な画像生成を実現します。テキストプロンプトから画像を生成します。", "fal-ai/flux-kontext/dev.description": "FLUX.1 モデルは画像編集に特化しており、テキストと画像の入力に対応しています。", "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] は、テキストと参照画像を入力として受け取り、局所的な編集や複雑なシーン全体の変換を可能にします。", "fal-ai/flux/krea.description": "Flux Krea [dev] は、よりリアルで自然な画像を生成する美的バイアスを持つ画像生成モデルです。", @@ -500,8 +497,8 @@ "fal-ai/hunyuan-image/v3.description": "強力なネイティブマルチモーダル画像生成モデルです。", "fal-ai/imagen4/preview.description": "Google による高品質な画像生成モデルです。", "fal-ai/nano-banana.description": "Nano Banana は Google による最新・最速・最も効率的なネイティブマルチモーダルモデルで、会話を通じた画像生成と編集が可能です。", - "fal-ai/qwen-image-edit.description": "Qwen チームによるプロフェッショナルな画像編集モデルで、意味や外観の編集、正確な中英テキスト編集、スタイル変換、回転などに対応します。", - "fal-ai/qwen-image.description": "Qwen チームによる高性能な画像生成モデルで、中国語テキストの描画に優れ、多様なビジュアルスタイルを提供します。", + "fal-ai/qwen-image-edit.description": "Qwenチームによるプロフェッショナルな画像編集モデルで、意味的および外観の編集をサポートし、中国語と英語のテキストを正確に編集します。スタイル変換やオブジェクトの回転など、高品質な編集を可能にします。", + "fal-ai/qwen-image.description": "Qwenチームによる強力な画像生成モデルで、中国語のテキストレンダリングや多様な視覚スタイルに優れています。", "flux-1-schnell.description": "Black Forest Labs による 120 億パラメータのテキストから画像への変換モデルで、潜在敵対的拡散蒸留を用いて 1~4 ステップで高品質な画像を生成します。クローズドな代替モデルに匹敵し、Apache-2.0 ライセンスのもと、個人・研究・商用利用が可能です。", "flux-dev.description": "FLUX.1 [dev] は、非商用利用向けのオープンウェイト蒸留モデルで、プロレベルに近い画像品質と指示追従性を維持しつつ、同サイズの標準モデルよりも効率的に動作します。", "flux-kontext-max.description": "最先端のコンテキスト画像生成・編集モデルで、テキストと画像を組み合わせて精密かつ一貫性のある結果を生成します。", @@ -532,8 +529,6 @@ "gemini-2.0-flash-lite-001.description": "コスト効率と低遅延に最適化された Gemini 2.0 Flash のバリアントです。", "gemini-2.0-flash-lite.description": "コスト効率と低遅延に最適化された Gemini 2.0 Flash のバリアントです。", "gemini-2.0-flash.description": "Gemini 2.0 Flash は、次世代の機能を提供するモデルで、卓越したスピード、ネイティブツールの使用、マルチモーダル生成、100万トークンのコンテキストウィンドウを備えています。", - "gemini-2.5-flash-image-preview.description": "Nano Banana は、Google による最新・最速・最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集を可能にします。", - "gemini-2.5-flash-image-preview:image.description": "Nano Banana は、Google による最新・最速・最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集を可能にします。", "gemini-2.5-flash-image.description": "Nano Banana は、Google による最新かつ最速、最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集が可能です。", "gemini-2.5-flash-image:image.description": "Nano Banana は、Google による最新かつ最速、最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集が可能です。", "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview は、Google による最小かつ最もコストパフォーマンスに優れたモデルで、大規模利用に適しています。", @@ -547,10 +542,10 @@ "gemini-2.5-pro.description": "Gemini 2.5 Pro は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の分析に対応します。", "gemini-3-flash-preview.description": "Gemini 3 Flash は、最先端の知能と優れた検索基盤を融合し、スピードに特化した最もスマートなモデルです。", "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)は、Googleの画像生成モデルで、マルチモーダル対話もサポートします。", - "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)は、Google による画像生成モデルであり、マルチモーダルチャットにも対応しています。", + "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)は、Googleの画像生成モデルで、マルチモーダルチャットもサポートします。", "gemini-3-pro-preview.description": "Gemini 3 Pro は、Google による最も強力なエージェントおよびバイブコーディングモデルで、最先端の推論に加え、より豊かなビジュアルと深い対話を実現します。", "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image(Nano Banana 2)は、Googleの最速のネイティブ画像生成モデルで、思考サポート、対話型画像生成および編集を提供します。", - "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image(Nano Banana 2)は、フラッシュ速度でプロレベルの画像品質を提供し、マルチモーダルチャットをサポートします。", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image(Nano Banana 2)は、Googleの最速のネイティブ画像生成モデルで、思考サポート、会話型画像生成、編集を提供します。", "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Previewは、Gemini 3 Proの推論能力を強化し、中程度の思考レベルサポートを追加しています。", "gemini-flash-latest.description": "Gemini Flash の最新リリース", "gemini-flash-lite-latest.description": "Gemini Flash-Lite の最新リリース", @@ -692,7 +687,6 @@ "gpt-oss:120b.description": "GPT-OSS 120B は、OpenAI による MXFP4 量子化を用いた大規模オープンソース LLM で、複雑な推論、コード生成、多言語処理に優れ、先進的な関数呼び出しやツール統合にも対応します。マルチ GPU や高性能ワークステーション環境が必要です。", "gpt-oss:20b.description": "GPT-OSS 20B は、OpenAI による MXFP4 量子化を用いたオープンソース LLM で、高性能なコンシューマー GPU や Apple Silicon Mac に適しており、対話生成、コーディング、推論タスクに強く、関数呼び出しやツール使用にも対応します。", "gpt-realtime.description": "リアルタイムのテキスト・音声入出力、画像入力に対応した汎用リアルタイムモデルです。", - "grok-2-image-1212.description": "最新の画像生成モデルで、プロンプトから鮮やかでリアルな画像を生成し、マーケティング、SNS、エンタメ用途に最適です。", "grok-2-vision-1212.description": "精度、指示追従、多言語対応が向上しています。", "grok-3-mini.description": "応答前に思考する軽量モデルで、ドメイン知識を必要としない論理タスクにおいて高速かつ賢明に対応し、思考の痕跡も確認できます。", "grok-3.description": "企業向けユースケース(データ抽出、コーディング、要約)に優れたフラッグシップモデルで、金融、医療、法務、科学分野における深い知識を備えています。", @@ -1141,7 +1135,11 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinkingは、詳細な視覚推論に対応するマルチモーダル思考モデルです。", "qwen3-vl-flash.description": "Qwen3 VL Flash:遅延に敏感または高トラフィックなリクエスト向けの軽量・高速推論モデルです。", "qwen3-vl-plus.description": "Qwen VLは、視覚理解を備えたテキスト生成モデルです。OCRや要約、推論が可能で、商品画像から属性を抽出したり、画像から問題を解決したりできます。", + "qwen3.5-122b-a10b.description": "テキスト、画像、動画入力をサポートします。テキストのみのタスクでは、Qwen3 Maxに匹敵する性能を持ち、効率が高くコストが低いです。マルチモーダル能力では、Qwen3 VLシリーズに比べて大幅な改善を実現しています。", + "qwen3.5-27b.description": "テキスト、画像、動画入力をサポートします。テキストのみのタスクでは、Qwen3 Maxに匹敵する性能を持ち、効率が高くコストが低いです。マルチモーダル能力では、Qwen3 VLシリーズに比べて大幅な改善を実現しています。", + "qwen3.5-35b-a3b.description": "テキスト、画像、動画入力をサポートします。テキストのみのタスクでは、Qwen3 Maxに匹敵する性能を持ち、効率が高くコストが低いです。マルチモーダル能力では、Qwen3 VLシリーズに比べて大幅な改善を実現しています。", "qwen3.5-397b-a17b.description": "テキスト、画像、ビデオ入力をサポートします。テキストのみのタスクでは、Qwen3 Maxに匹敵する性能を発揮し、効率が高くコストが低いです。マルチモーダル能力においては、Qwen3 VLシリーズよりも大幅に改善されています。", + "qwen3.5-flash.description": "最速かつ最も低コストのQwenモデルで、シンプルなタスクに最適です。", "qwen3.5-plus.description": "Qwen3.5 Plusは、テキスト、画像、ビデオ入力をサポートします。純粋なテキストタスクでの性能はQwen3 Maxに匹敵し、より良い性能と低コストを実現します。そのマルチモーダル能力はQwen3 VLシリーズと比較して大幅に向上しています。", "qwen3.5:397b.description": "Qwen3.5は、ハイブリッドアーキテクチャ(Mixture-of-Experts + 線形注意)を備えた統一的なビジョン・言語基盤モデルで、強力なマルチモーダル推論、コーディング、長文コンテキスト能力を提供し、256Kのコンテキストウィンドウをサポートします。", "qwen3.description": "Qwen3は、Alibabaが開発した次世代の大規模言語モデルで、多様なユースケースにおいて高い性能を発揮します。", @@ -1151,8 +1149,6 @@ "qwq.description": "QwQは、Qwenファミリーの推論モデルです。標準的な指示調整モデルと比較して、思考と推論能力に優れ、特に難解な問題において下流性能を大幅に向上させます。QwQ-32Bは、DeepSeek-R1やo1-miniと競合する中規模の推論モデルです。", "qwq_32b.description": "Qwenファミリーの中規模推論モデル。標準的な指示調整モデルと比較して、QwQの思考と推論能力は、特に難解な問題において下流性能を大幅に向上させます。", "r1-1776.description": "R1-1776は、DeepSeek R1のポストトレーニングバリアントで、検閲のない偏りのない事実情報を提供するよう設計されています。", - "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro は、ByteDance によるモデルで、テキストから動画、画像から動画(最初のフレーム、最初+最後のフレーム)、および映像と同期した音声生成に対応します。", - "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-liteは、リアルタイム情報のためのウェブ検索強化生成を特徴とし、複雑なプロンプト解釈と専門的な視覚制作のための参照一貫性を向上させています。", "solar-mini-ja.description": "Solar Mini (Ja)は、Solar Miniを日本語に特化させたモデルで、英語と韓国語でも効率的かつ高性能な動作を維持します。", "solar-mini.description": "Solar Miniは、GPT-3.5を上回る性能を持つコンパクトなLLMで、英語と韓国語に対応した多言語機能を備え、効率的な小型ソリューションを提供します。", "solar-pro.description": "Solar Proは、Upstageが提供する高知能LLMで、単一GPU上での指示追従に特化し、IFEvalスコア80以上を記録しています。現在は英語に対応しており、2024年11月の正式リリースでは対応言語とコンテキスト長が拡張される予定です。", diff --git a/locales/ja-JP/providers.json b/locales/ja-JP/providers.json index 7308a4f646..231721984d 100644 --- a/locales/ja-JP/providers.json +++ b/locales/ja-JP/providers.json @@ -30,7 +30,6 @@ "internlm.description": "InternLMは、大規模モデルの研究とツール開発に特化したオープンソース組織で、最先端のモデルとアルゴリズムを誰でも使いやすく提供します。", "jina.description": "Jina AIは2020年に設立された検索AIのリーディングカンパニーで、ベクトルモデル、リランカー、小型言語モデルを含む検索スタックにより、高品質な生成・マルチモーダル検索アプリを構築できます。", "lmstudio.description": "LM Studioは、ローカルPC上でLLMの開発と実験ができるデスクトップアプリです。", - "lobehub.description": "LobeHub Cloud は、公式 API を使用して AI モデルにアクセスし、モデルのトークンに基づいたクレジットで使用量を計測します。", "minimax.description": "MiniMaxは2021年に設立され、マルチモーダル基盤モデルを用いた汎用AIを開発しています。兆単位パラメータのMoEテキストモデル、音声モデル、ビジョンモデル、Hailuo AIなどのアプリを提供します。", "mistral.description": "Mistralは、複雑な推論、多言語タスク、コード生成に対応した高度な汎用・専門・研究モデルを提供し、関数呼び出しによるカスタム統合も可能です。", "modelscope.description": "ModelScopeは、Alibaba Cloudが提供するモデル・アズ・ア・サービス(MaaS)プラットフォームで、幅広いAIモデルと推論サービスを提供します。", diff --git a/locales/ko-KR/agent.json b/locales/ko-KR/agent.json new file mode 100644 index 0000000000..78c2a6ffad --- /dev/null +++ b/locales/ko-KR/agent.json @@ -0,0 +1,34 @@ +{ + "integration.applicationId": "애플리케이션 ID / 봇 사용자 이름", + "integration.applicationIdPlaceholder": "예: 1234567890", + "integration.botToken": "봇 토큰 / API 키", + "integration.botTokenEncryptedHint": "토큰은 암호화되어 안전하게 저장됩니다.", + "integration.botTokenHowToGet": "어떻게 얻나요?", + "integration.botTokenPlaceholderExisting": "보안을 위해 토큰이 숨겨져 있습니다", + "integration.botTokenPlaceholderNew": "여기에 봇 토큰을 붙여넣으세요", + "integration.connectionConfig": "연결 구성", + "integration.copied": "클립보드에 복사됨", + "integration.copy": "복사", + "integration.deleteConfirm": "이 통합을 제거하시겠습니까?", + "integration.disabled": "비활성화됨", + "integration.discord.description": "이 어시스턴트를 Discord 서버에 연결하여 채널 채팅 및 직접 메시지를 사용할 수 있습니다.", + "integration.documentation": "문서", + "integration.enabled": "활성화됨", + "integration.endpointUrl": "상호작용 엔드포인트 URL", + "integration.endpointUrlHint": "이 URL을 복사하여 {{name}} 개발자 포털의 \"상호작용 엔드포인트 URL\" 필드에 붙여넣으세요.", + "integration.platforms": "플랫폼", + "integration.publicKey": "공개 키", + "integration.publicKeyPlaceholder": "상호작용 검증에 필요합니다", + "integration.removeFailed": "통합 제거에 실패했습니다", + "integration.removeIntegration": "통합 제거", + "integration.removed": "통합이 제거되었습니다", + "integration.save": "구성 저장", + "integration.saveFailed": "구성 저장에 실패했습니다", + "integration.saveFirstWarning": "먼저 구성을 저장하세요", + "integration.saved": "구성이 성공적으로 저장되었습니다", + "integration.testConnection": "연결 테스트", + "integration.testFailed": "연결 테스트에 실패했습니다", + "integration.testSuccess": "연결 테스트가 성공했습니다", + "integration.updateFailed": "상태 업데이트에 실패했습니다", + "integration.validationError": "애플리케이션 ID와 토큰을 입력하세요" +} diff --git a/locales/ko-KR/chat.json b/locales/ko-KR/chat.json index 7c9541123b..2ec959c95f 100644 --- a/locales/ko-KR/chat.json +++ b/locales/ko-KR/chat.json @@ -336,6 +336,7 @@ "supervisor.todoList.allComplete": "모든 작업 완료", "supervisor.todoList.title": "작업 완료", "tab.groupProfile": "그룹 프로필", + "tab.integration": "통합", "tab.profile": "도우미 프로필", "tab.search": "검색", "task.activity.calling": "기능 호출 중…", diff --git a/locales/ko-KR/common.json b/locales/ko-KR/common.json index 8625823f69..a43023234c 100644 --- a/locales/ko-KR/common.json +++ b/locales/ko-KR/common.json @@ -209,7 +209,6 @@ "delete": "삭제", "document": "사용 설명서", "download": "다운로드", - "downloadClient": "클라이언트 다운로드", "duplicate": "복사본 만들기", "edit": "편집", "errors.invalidFileFormat": "파일 형식 오류", @@ -256,6 +255,7 @@ "footer.star.title": "GitHub에서 별표 추가", "footer.title": "제품이 마음에 드시나요?", "fullscreen": "전체 화면 모드", + "getDesktopApp": "데스크톱 앱 받기", "historyRange": "기록 범위", "home.suggestQuestions": "이런 예시를 시도해 보세요", "import": "가져오기", diff --git a/locales/ko-KR/models.json b/locales/ko-KR/models.json index 9874c5fc78..f9bfa3b07f 100644 --- a/locales/ko-KR/models.json +++ b/locales/ko-KR/models.json @@ -77,10 +77,8 @@ "MiniMax-M1.description": "80K 체인 오브 싱킹과 100만 입력을 지원하는 새로운 자체 개발 추론 모델로, 세계 최고 수준의 모델과 유사한 성능을 제공합니다.", "MiniMax-M2-Stable.description": "상업적 사용을 위한 높은 동시성을 제공하며, 효율적인 코딩 및 에이전트 워크플로우에 최적화되어 있습니다.", "MiniMax-M2.1-Lightning.description": "강력한 다국어 프로그래밍 기능과 전면적으로 업그레이드된 코딩 경험. 더 빠르고 효율적입니다.", - "MiniMax-M2.1-highspeed.description": "강력한 다국어 프로그래밍 기능과 더 빠르고 효율적인 추론 속도.", "MiniMax-M2.1.description": "MiniMax-M2.1은 MiniMax에서 개발한 대표적인 오픈소스 대형 모델로, 복잡한 실제 과제를 해결하는 데 중점을 둡니다. 다국어 프로그래밍 능력과 에이전트로서 복잡한 작업을 수행하는 능력이 핵심 강점입니다.", "MiniMax-M2.5-Lightning.description": "M2.5 Lightning: 동일한 성능, 더 빠르고 민첩한 속도 (약 100 tps).", - "MiniMax-M2.5-highspeed.description": "M2.5와 동일한 성능에 훨씬 더 빠른 추론 속도.", "MiniMax-M2.5.description": "MiniMax-M2.5는 MiniMax의 플래그십 오픈 소스 대형 모델로, 복잡한 실제 과제를 해결하는 데 중점을 둡니다. 이 모델의 핵심 강점은 다중 언어 프로그래밍 기능과 에이전트로서 복잡한 작업을 해결하는 능력입니다.", "MiniMax-M2.description": "효율적인 코딩 및 에이전트 워크플로우를 위해 특별히 설계됨", "MiniMax-Text-01.description": "MiniMax-01은 기존 트랜스포머를 넘어선 대규모 선형 어텐션을 도입한 모델로, 4560억 파라미터 중 459억이 활성화됩니다. 최대 400만 토큰의 문맥을 지원하며, GPT-4o의 32배, Claude-3.5-Sonnet의 20배에 해당합니다.", @@ -283,9 +281,9 @@ "chatgpt-4o-latest.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 강력한 언어 이해와 생성 능력을 결합하여 고객 지원, 교육, 기술 지원과 같은 대규모 사용 사례에 적합합니다.", "claude-2.0.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.", "claude-2.1.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.", - "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른 모델로, 다양한 기술에서 향상되었으며 이전 플래그십 모델인 Claude 3 Opus를 여러 벤치마크에서 능가합니다.", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 가장 빠른 차세대 모델입니다. Claude 3 Haiku와 비교하여 전반적인 기술이 향상되었으며, 이전의 가장 큰 모델인 Claude 3 Opus를 여러 지능 벤치마크에서 능가합니다.", "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku는 가벼운 작업에 빠른 응답을 제공하는 모델입니다.", - "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7은 Anthropic의 가장 지능적인 모델이자 시장 최초의 하이브리드 추론 모델로, 즉각적인 응답과 장기적인 사고를 모두 지원하며 정밀한 제어가 가능합니다.", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet은 Anthropic의 가장 지능적인 모델이자 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답을 생성하거나 사용자가 볼 수 있는 단계별 추론을 확장하여 제공합니다. Sonnet은 특히 코딩, 데이터 과학, 비전, 에이전트 작업에서 강력합니다.", "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.", "claude-3-haiku-20240307.description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 빠르고 정확한 성능으로 즉각적인 응답을 위해 설계되었습니다.", "claude-3-opus-20240229.description": "Claude 3 Opus는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.", @@ -293,17 +291,17 @@ "claude-3.5-sonnet.description": "Claude 3.5 Sonnet은 코딩, 글쓰기, 복잡한 추론에서 뛰어난 성능을 발휘합니다.", "claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet은 복잡한 추론 작업을 위한 확장된 사고 기능을 갖춘 모델입니다.", "claude-3.7-sonnet.description": "Claude 3.7 Sonnet은 확장된 문맥 처리와 기능을 갖춘 업그레이드 버전입니다.", - "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 심화된 사고 능력을 갖추고 있습니다.", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 스마트한 Haiku 모델로, 번개 같은 속도와 확장된 추론 능력을 자랑합니다.", "claude-haiku-4.5.description": "Claude Haiku 4.5는 다양한 작업에 빠르고 효율적으로 대응하는 모델입니다.", "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking은 자신의 추론 과정을 드러낼 수 있는 고급 변형 모델입니다.", - "claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 강력한 모델로, 고난이도 작업에서 탁월한 성능, 지능, 유창성, 이해력을 자랑합니다.", - "claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난이도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 제공합니다.", + "claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신 모델로, 매우 복잡한 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 발휘합니다.", + "claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 매우 복잡한 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.", "claude-opus-4-5-20251101.description": "Claude Opus 4.5는 Anthropic의 플래그십 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 품질의 응답과 추론이 필요한 복잡한 작업에 이상적입니다.", - "claude-opus-4-6.description": "Claude Opus 4.6은 에이전트 구축과 코딩에 최적화된 Anthropic의 가장 지능적인 모델입니다.", + "claude-opus-4-6.description": "Claude Opus 4.6은 에이전트 구축과 코딩에 가장 적합한 Anthropic의 가장 지능적인 모델입니다.", "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking은 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 사고를 생성할 수 있습니다.", - "claude-sonnet-4-20250514.description": "Claude Sonnet 4는 지금까지의 Anthropic 모델 중 가장 지능적인 모델로, API 사용자에게 즉각적인 응답 또는 단계별 사고를 정밀하게 제어할 수 있는 기능을 제공합니다.", - "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 지금까지의 Anthropic 모델 중 가장 지능적인 모델입니다.", - "claude-sonnet-4-6.description": "Claude Sonnet 4.6은 Anthropic의 속도와 지능의 최적 조합입니다.", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4는 즉각적인 응답을 생성하거나 사용자가 볼 수 있는 단계별 사고 과정을 확장하여 제공합니다.", + "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 현재까지 Anthropic의 가장 지능적인 모델입니다.", + "claude-sonnet-4-6.description": "Claude Sonnet 4.6은 속도와 지능의 최상의 조합을 제공하는 Anthropic의 모델입니다.", "claude-sonnet-4.description": "Claude Sonnet 4는 모든 작업에서 향상된 성능을 제공하는 최신 세대 모델입니다.", "codegeex-4.description": "CodeGeeX-4는 다국어 Q&A 및 코드 자동 완성을 지원하여 개발자의 생산성을 높이는 강력한 AI 코딩 도우미입니다.", "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B는 코드 자동 완성 및 생성, 코드 인터프리터, 웹 검색, 함수 호출, 저장소 수준의 코드 Q&A를 지원하는 다국어 코드 생성 모델로, 다양한 소프트웨어 개발 시나리오를 포괄합니다. 10B 미만 파라미터 중 최고 수준의 코드 모델입니다.", @@ -373,7 +371,7 @@ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.", "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2는 복잡한 추론과 연쇄 사고 능력이 강화된 차세대 추론 모델입니다.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2는 DeepSeekMoE-27B 기반의 MoE 비전-언어 모델로, 희소 활성화를 통해 4.5B 활성 파라미터만으로도 뛰어난 성능을 발휘합니다. 시각적 QA, OCR, 문서/표/차트 이해, 시각적 정렬에 탁월합니다.", - "deepseek-chat.description": "DeepSeek V3.2는 일상적인 질의응답 및 에이전트 작업을 위해 추론 능력과 출력 길이의 균형을 이룹니다. 공개 벤치마크에서 GPT-5 수준에 도달했으며, 도구 사용에 사고 과정을 통합한 최초의 모델로, 오픈소스 에이전트 평가에서 선도적인 성과를 보입니다.", + "deepseek-chat.description": "일반 대화 및 코딩 능력을 결합한 새로운 오픈소스 모델입니다. 이 모델은 채팅 모델의 일반 대화 능력과 코더 모델의 강력한 코딩 능력을 유지하며, 선호도 정렬이 개선되었습니다. DeepSeek-V2.5는 글쓰기와 지시 사항 준수 능력도 향상시켰습니다.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B는 2T 토큰(코드 87%, 중/영문 텍스트 13%)으로 학습된 코드 언어 모델입니다. 16K 문맥 창과 중간 채우기(fit-in-the-middle) 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 보완을 지원합니다.", "deepseek-coder-v2.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.", "deepseek-coder-v2:236b.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.", @@ -396,7 +394,7 @@ "deepseek-r1-fast-online.description": "DeepSeek R1의 빠른 전체 버전으로, 실시간 웹 검색을 지원하며 671B 규모의 성능과 빠른 응답을 결합합니다.", "deepseek-r1-online.description": "DeepSeek R1 전체 버전은 671B 파라미터와 실시간 웹 검색을 지원하여 더 강력한 이해 및 생성 능력을 제공합니다.", "deepseek-r1.description": "DeepSeek-R1은 강화 학습 전 콜드 스타트 데이터를 사용하며, 수학, 코딩, 추론에서 OpenAI-o1과 유사한 성능을 보입니다.", - "deepseek-reasoner.description": "DeepSeek V3.2 Thinking은 출력 전에 사고 과정을 생성하여 정확도를 높이는 심층 추론 모델로, 최고 수준의 경쟁 성과를 기록하며 Gemini-3.0-Pro에 필적하는 추론 능력을 보입니다.", + "deepseek-reasoner.description": "DeepSeek V3.2의 사고 모드는 최종 답변 전에 사고 과정을 출력하여 정확성을 높입니다.", "deepseek-v2.description": "DeepSeek V2는 비용 효율적인 처리를 위한 고효율 MoE 모델입니다.", "deepseek-v2:236b.description": "DeepSeek V2 236B는 코드 생성에 강점을 가진 DeepSeek의 코드 특화 모델입니다.", "deepseek-v3-0324.description": "DeepSeek-V3-0324는 671B 파라미터의 MoE 모델로, 프로그래밍 및 기술 역량, 문맥 이해, 장문 처리에서 뛰어난 성능을 보입니다.", @@ -491,8 +489,7 @@ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K는 복잡한 추론 및 다중 턴 대화를 위한 32K 컨텍스트의 고속 사고 모델입니다.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview는 평가 및 테스트를 위한 사고 모델 프리뷰입니다.", "ernie-x1.1.description": "ERNIE X1.1은 평가 및 테스트를 위한 사고 모델 프리뷰입니다.", - "fal-ai/bytedance/seedream/v4.5.description": "ByteDance Seed 팀이 개발한 Seedream 4.5는 다중 이미지 편집 및 합성을 지원하며, 피사체 일관성 향상, 정밀한 지시 수행, 공간 논리 이해, 미적 표현, 포스터 레이아웃 및 로고 디자인 등 고정밀 텍스트-이미지 렌더링 기능을 갖추고 있습니다.", - "fal-ai/bytedance/seedream/v4.description": "ByteDance Seed가 개발한 Seedream 4.0은 텍스트 및 이미지 입력을 지원하며, 프롬프트 기반의 고품질 이미지 생성을 정밀하게 제어할 수 있습니다.", + "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0은 ByteDance Seed의 이미지 생성 모델로, 텍스트와 이미지 입력을 지원하며 고도로 제어 가능하고 고품질의 이미지를 생성합니다. 텍스트 프롬프트를 기반으로 이미지를 생성합니다.", "fal-ai/flux-kontext/dev.description": "FLUX.1 모델은 이미지 편집에 중점을 두며, 텍스트와 이미지 입력을 지원합니다.", "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro]는 텍스트와 참조 이미지를 입력으로 받아, 국소 편집과 복잡한 장면 변환을 정밀하게 수행할 수 있습니다.", "fal-ai/flux/krea.description": "Flux Krea [dev]는 보다 사실적이고 자연스러운 이미지 스타일에 중점을 둔 이미지 생성 모델입니다.", @@ -500,8 +497,8 @@ "fal-ai/hunyuan-image/v3.description": "강력한 네이티브 멀티모달 이미지 생성 모델입니다.", "fal-ai/imagen4/preview.description": "Google에서 개발한 고품질 이미지 생성 모델입니다.", "fal-ai/nano-banana.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.", - "fal-ai/qwen-image-edit.description": "Qwen 팀이 개발한 전문 이미지 편집 모델로, 의미 및 외형 편집, 정밀한 중/영문 텍스트 편집, 스타일 전환, 회전 등 다양한 기능을 지원합니다.", - "fal-ai/qwen-image.description": "Qwen 팀이 개발한 강력한 이미지 생성 모델로, 뛰어난 중국어 텍스트 렌더링과 다양한 시각적 스타일을 제공합니다.", + "fal-ai/qwen-image-edit.description": "Qwen 팀의 전문 이미지 편집 모델로, 의미와 외형 편집을 지원하며, 중국어와 영어 텍스트를 정밀하게 편집하고 스타일 전환 및 객체 회전과 같은 고품질 편집을 제공합니다.", + "fal-ai/qwen-image.description": "Qwen 팀의 강력한 이미지 생성 모델로, 인상적인 중국어 텍스트 렌더링과 다양한 시각적 스타일을 제공합니다.", "flux-1-schnell.description": "Black Forest Labs에서 개발한 120억 파라미터 텍스트-이미지 모델로, 잠재 적대 확산 증류를 사용하여 1~4단계 내에 고품질 이미지를 생성합니다. Apache-2.0 라이선스로 개인, 연구, 상업적 사용이 가능합니다.", "flux-dev.description": "FLUX.1 [dev]는 오픈 가중치 증류 모델로, 비상업적 사용을 위해 설계되었습니다. 전문가 수준의 이미지 품질과 지시 따르기를 유지하면서도 더 효율적으로 작동하며, 동일 크기의 표준 모델보다 자원을 더 잘 활용합니다.", "flux-kontext-max.description": "최첨단 문맥 기반 이미지 생성 및 편집 모델로, 텍스트와 이미지를 결합하여 정밀하고 일관된 결과를 생성합니다.", @@ -532,8 +529,6 @@ "gemini-2.0-flash-lite-001.description": "비용 효율성과 낮은 지연 시간에 최적화된 Gemini 2.0 Flash 변형입니다.", "gemini-2.0-flash-lite.description": "비용 효율성과 낮은 지연 시간에 최적화된 Gemini 2.0 Flash 변형입니다.", "gemini-2.0-flash.description": "Gemini 2.0 Flash는 탁월한 속도, 네이티브 도구 사용, 멀티모달 생성, 100만 토큰 문맥 창 등 차세대 기능을 제공합니다.", - "gemini-2.5-flash-image-preview.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.", - "gemini-2.5-flash-image-preview:image.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.", "gemini-2.5-flash-image.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.", "gemini-2.5-flash-image:image.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.", "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview는 Google의 가장 작고 가성비 높은 모델로, 대규모 사용을 위해 설계되었습니다.", @@ -547,10 +542,10 @@ "gemini-2.5-pro.description": "Gemini 2.5 Pro는 Google의 플래그십 추론 모델로, 복잡한 작업을 위한 장기 문맥 지원을 제공합니다.", "gemini-3-flash-preview.description": "Gemini 3 Flash는 속도를 위해 설계된 가장 스마트한 모델로, 최첨단 지능과 뛰어난 검색 기반을 결합합니다.", "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro)는 구글의 이미지 생성 모델로, 멀티모달 대화도 지원합니다.", - "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 대화도 지원합니다.", + "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 채팅도 지원합니다.", "gemini-3-pro-preview.description": "Gemini 3 Pro는 Google의 가장 강력한 에이전트 및 바이브 코딩 모델로, 최첨단 추론 위에 풍부한 시각적 표현과 깊은 상호작용을 제공합니다.", "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2)는 구글의 가장 빠른 네이티브 이미지 생성 모델로, 사고 지원, 대화형 이미지 생성 및 편집을 제공합니다.", - "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2)는 플래시 속도로 프로급 이미지 품질을 제공하며 멀티모달 채팅을 지원합니다.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2)는 Google의 가장 빠른 네이티브 이미지 생성 모델로, 사고 지원, 대화형 이미지 생성 및 편집을 제공합니다.", "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview는 Gemini 3 Pro의 추론 능력을 강화하고 중간 사고 수준 지원을 추가합니다.", "gemini-flash-latest.description": "Gemini Flash 최신 버전", "gemini-flash-lite-latest.description": "Gemini Flash-Lite 최신 버전", @@ -692,7 +687,6 @@ "gpt-oss:120b.description": "GPT-OSS 120B는 MXFP4 양자화를 적용한 OpenAI의 대형 오픈소스 LLM으로, 플래그십 모델로 자리매김하고 있습니다. 다중 GPU 또는 고성능 워크스테이션 환경이 필요하며, 복잡한 추론, 코드 생성, 다국어 처리에서 뛰어난 성능을 발휘하며, 고급 함수 호출 및 도구 통합 기능을 지원합니다.", "gpt-oss:20b.description": "GPT-OSS 20B는 MXFP4 양자화를 적용한 OpenAI의 오픈소스 LLM으로, 고급 소비자용 GPU 또는 Apple Silicon Mac에서 사용하기 적합합니다. 대화 생성, 코딩, 추론 작업에서 우수한 성능을 보이며, 함수 호출 및 도구 사용을 지원합니다.", "gpt-realtime.description": "실시간 텍스트 및 오디오 입출력, 이미지 입력을 지원하는 범용 실시간 모델입니다.", - "grok-2-image-1212.description": "최신 이미지 생성 모델로, 생생하고 사실적인 이미지를 프롬프트로부터 생성하며, 마케팅, 소셜 미디어, 엔터테인먼트 분야에서 뛰어난 성능을 발휘합니다.", "grok-2-vision-1212.description": "정확도, 지시 따르기, 다국어 처리 능력이 향상되었습니다.", "grok-3-mini.description": "응답 전에 사고하는 경량 모델입니다. 빠르고 스마트하며, 깊은 전문 지식이 필요 없는 논리 작업에 적합하며, 추론 과정을 추적할 수 있습니다.", "grok-3.description": "데이터 추출, 코딩, 요약 등 엔터프라이즈 활용 사례에 강한 플래그십 모델로, 금융, 의료, 법률, 과학 분야에 대한 깊은 전문 지식을 갖추고 있습니다.", @@ -1141,7 +1135,11 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking은 정밀한 시각 추론을 위한 멀티모달 연쇄 사고 모델입니다.", "qwen3-vl-flash.description": "Qwen3 VL Flash는 지연 민감 또는 대량 요청에 적합한 경량 고속 추론 버전입니다.", "qwen3-vl-plus.description": "Qwen VL은 시각 이해 기능을 갖춘 텍스트 생성 모델입니다. OCR 수행은 물론, 제품 사진에서 속성 추출이나 이미지 기반 문제 해결 등 요약 및 추론도 가능합니다.", + "qwen3.5-122b-a10b.description": "텍스트, 이미지, 비디오 입력을 지원합니다. 텍스트 전용 작업에서는 Qwen3 Max와 유사한 성능을 제공하며, 더 높은 효율성과 낮은 비용을 자랑합니다. 멀티모달 기능에서는 Qwen3 VL 시리즈에 비해 상당한 개선을 제공합니다.", + "qwen3.5-27b.description": "텍스트, 이미지, 비디오 입력을 지원합니다. 텍스트 전용 작업에서는 Qwen3 Max와 유사한 성능을 제공하며, 더 높은 효율성과 낮은 비용을 자랑합니다. 멀티모달 기능에서는 Qwen3 VL 시리즈에 비해 상당한 개선을 제공합니다.", + "qwen3.5-35b-a3b.description": "텍스트, 이미지, 비디오 입력을 지원합니다. 텍스트 전용 작업에서는 Qwen3 Max와 유사한 성능을 제공하며, 더 높은 효율성과 낮은 비용을 자랑합니다. 멀티모달 기능에서는 Qwen3 VL 시리즈에 비해 상당한 개선을 제공합니다.", "qwen3.5-397b-a17b.description": "텍스트, 이미지 및 비디오 입력을 지원합니다. 텍스트 전용 작업에서는 Qwen3 Max와 비교 가능한 성능을 제공하며, 더 높은 효율성과 낮은 비용을 자랑합니다. 멀티모달 기능에서는 Qwen3 VL 시리즈에 비해 상당한 개선을 보여줍니다.", + "qwen3.5-flash.description": "가장 빠르고 비용 효율적인 Qwen 모델로, 간단한 작업에 이상적입니다.", "qwen3.5-plus.description": "Qwen3.5 Plus는 텍스트, 이미지 및 비디오 입력을 지원합니다. 순수 텍스트 작업에서 Qwen3 Max와 비슷한 성능을 제공하며, 더 나은 성능과 낮은 비용을 자랑합니다. 멀티모달 기능은 Qwen3 VL 시리즈에 비해 크게 향상되었습니다.", "qwen3.5:397b.description": "Qwen3.5는 하이브리드 아키텍처(Mixture-of-Experts + 선형 주의)를 갖춘 통합 비전-언어 기반 모델로, 강력한 멀티모달 추론, 코딩 및 긴 컨텍스트 처리 능력을 제공합니다. 256K 컨텍스트 윈도우를 지원합니다.", "qwen3.description": "Qwen3는 Alibaba의 차세대 대형 언어 모델로, 다양한 활용 사례에서 강력한 성능을 발휘합니다.", @@ -1151,8 +1149,6 @@ "qwq.description": "QwQ는 Qwen 계열의 추론 모델입니다. 일반적인 지시 조정 모델과 비교해 사고 및 추론 능력이 뛰어나며, 특히 어려운 문제에서 다운스트림 성능을 크게 향상시킵니다. QwQ-32B는 DeepSeek-R1 및 o1-mini와 경쟁할 수 있는 중형 추론 모델입니다.", "qwq_32b.description": "Qwen 계열의 중형 추론 모델입니다. 일반적인 지시 조정 모델과 비교해 QwQ의 사고 및 추론 능력은 특히 어려운 문제에서 다운스트림 성능을 크게 향상시킵니다.", "r1-1776.description": "R1-1776은 DeepSeek R1의 후속 학습 버전으로, 검열되지 않고 편향 없는 사실 정보를 제공합니다.", - "seedance-1-5-pro-251215.description": "ByteDance의 Seedance 1.5 Pro는 텍스트-영상, 이미지-영상(첫 프레임, 첫+마지막 프레임), 시각과 동기화된 오디오 생성을 지원합니다.", - "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite는 BytePlus가 개발한 모델로, 실시간 정보 제공을 위한 웹 검색 증강 생성 기능을 특징으로 하며, 복잡한 프롬프트 해석과 전문적인 시각적 창작을 위한 참조 일관성을 개선합니다.", "solar-mini-ja.description": "Solar Mini (Ja)는 Solar Mini의 일본어 특화 버전으로, 영어와 한국어에서도 효율적이고 강력한 성능을 유지합니다.", "solar-mini.description": "Solar Mini는 GPT-3.5를 능가하는 성능을 가진 소형 LLM으로, 영어와 한국어를 지원하는 강력한 다국어 기능을 갖추고 있으며, 효율적인 경량 솔루션을 제공합니다.", "solar-pro.description": "Solar Pro는 Upstage의 고지능 LLM으로, 단일 GPU에서 지시 수행에 최적화되어 있으며, IFEval 점수 80 이상을 기록합니다. 현재는 영어를 지원하며, 2024년 11월 전체 릴리스 시 더 많은 언어와 긴 컨텍스트를 지원할 예정입니다.", diff --git a/locales/ko-KR/providers.json b/locales/ko-KR/providers.json index 8960a3933e..5be2865375 100644 --- a/locales/ko-KR/providers.json +++ b/locales/ko-KR/providers.json @@ -30,7 +30,6 @@ "internlm.description": "InternLM은 대규모 모델 연구 및 도구 개발에 집중하는 오픈소스 조직으로, 최신 모델과 알고리즘을 누구나 쉽게 사용할 수 있도록 효율적인 플랫폼을 제공합니다.", "jina.description": "2020년에 설립된 Jina AI는 선도적인 검색 AI 기업으로, 벡터 모델, 재정렬기, 소형 언어 모델을 포함한 검색 스택을 통해 신뢰성 높고 고품질의 생성형 및 멀티모달 검색 앱을 구축합니다.", "lmstudio.description": "LM Studio는 데스크탑에서 LLM을 개발하고 실험할 수 있는 애플리케이션입니다.", - "lobehub.description": "LobeHub Cloud는 공식 API를 사용하여 AI 모델에 접근하며, 모델 토큰에 연동된 크레딧을 통해 사용량을 측정합니다.", "minimax.description": "2021년에 설립된 MiniMax는 텍스트, 음성, 비전 등 멀티모달 기반의 범용 AI를 개발하며, 조 단위 파라미터의 MoE 텍스트 모델과 Hailuo AI와 같은 앱을 제공합니다.", "mistral.description": "Mistral은 복잡한 추론, 다국어 작업, 코드 생성에 적합한 고급 범용, 특화, 연구용 모델을 제공하며, 사용자 정의 통합을 위한 함수 호출 기능도 지원합니다.", "modelscope.description": "ModelScope는 Alibaba Cloud의 모델 서비스 플랫폼으로, 다양한 AI 모델과 추론 서비스를 제공합니다.", diff --git a/locales/nl-NL/agent.json b/locales/nl-NL/agent.json new file mode 100644 index 0000000000..4282e7aa1c --- /dev/null +++ b/locales/nl-NL/agent.json @@ -0,0 +1,34 @@ +{ + "integration.applicationId": "Applicatie-ID / Bot Gebruikersnaam", + "integration.applicationIdPlaceholder": "bijv. 1234567890", + "integration.botToken": "Bot Token / API Sleutel", + "integration.botTokenEncryptedHint": "Token wordt versleuteld en veilig opgeslagen.", + "integration.botTokenHowToGet": "Hoe te verkrijgen?", + "integration.botTokenPlaceholderExisting": "Token is verborgen voor beveiliging", + "integration.botTokenPlaceholderNew": "Plak hier je bot token", + "integration.connectionConfig": "Verbindingsconfiguratie", + "integration.copied": "Gekopieerd naar klembord", + "integration.copy": "Kopiëren", + "integration.deleteConfirm": "Weet je zeker dat je deze integratie wilt verwijderen?", + "integration.disabled": "Uitgeschakeld", + "integration.discord.description": "Verbind deze assistent met een Discord-server voor kanaalchat en directe berichten.", + "integration.documentation": "Documentatie", + "integration.enabled": "Ingeschakeld", + "integration.endpointUrl": "Interacties Eindpunt-URL", + "integration.endpointUrlHint": "Kopieer deze URL en plak deze in het veld \"Interacties Eindpunt-URL\" in de {{name}} Developer Portal.", + "integration.platforms": "Platformen", + "integration.publicKey": "Publieke Sleutel", + "integration.publicKeyPlaceholder": "Vereist voor interactieverificatie", + "integration.removeFailed": "Verwijderen van integratie mislukt", + "integration.removeIntegration": "Verwijder Integratie", + "integration.removed": "Integratie verwijderd", + "integration.save": "Configuratie Opslaan", + "integration.saveFailed": "Opslaan van configuratie mislukt", + "integration.saveFirstWarning": "Sla eerst de configuratie op", + "integration.saved": "Configuratie succesvol opgeslagen", + "integration.testConnection": "Verbinding Testen", + "integration.testFailed": "Verbindingstest mislukt", + "integration.testSuccess": "Verbindingstest geslaagd", + "integration.updateFailed": "Bijwerken van status mislukt", + "integration.validationError": "Vul Applicatie-ID en Token in" +} diff --git a/locales/nl-NL/chat.json b/locales/nl-NL/chat.json index bb7568a279..7575f4b145 100644 --- a/locales/nl-NL/chat.json +++ b/locales/nl-NL/chat.json @@ -336,6 +336,7 @@ "supervisor.todoList.allComplete": "Alle taken voltooid", "supervisor.todoList.title": "Voltooide taken", "tab.groupProfile": "Groepsprofiel", + "tab.integration": "Integratie", "tab.profile": "Agentprofiel", "tab.search": "Zoeken", "task.activity.calling": "Skill wordt aangeroepen...", diff --git a/locales/nl-NL/common.json b/locales/nl-NL/common.json index 23f6328b8e..7c7a2da4f5 100644 --- a/locales/nl-NL/common.json +++ b/locales/nl-NL/common.json @@ -209,7 +209,6 @@ "delete": "Verwijderen", "document": "Gebruikershandleiding", "download": "Downloaden", - "downloadClient": "Client downloaden", "duplicate": "Dupliceren", "edit": "Bewerken", "errors.invalidFileFormat": "Ongeldig bestandsformaat", @@ -256,6 +255,7 @@ "footer.star.title": "Geef ons een ster op GitHub", "footer.title": "Tevreden over ons product?", "fullscreen": "Volledig scherm", + "getDesktopApp": "Download Desktop-app", "historyRange": "Geschiedenisbereik", "home.suggestQuestions": "Probeer deze voorbeelden", "import": "Importeren", diff --git a/locales/nl-NL/models.json b/locales/nl-NL/models.json index 2d4197d164..fc6241ba13 100644 --- a/locales/nl-NL/models.json +++ b/locales/nl-NL/models.json @@ -77,10 +77,8 @@ "MiniMax-M1.description": "Een nieuw intern redeneermodel met 80K chain-of-thought en 1M input, met prestaties vergelijkbaar met toonaangevende wereldwijde modellen.", "MiniMax-M2-Stable.description": "Ontworpen voor efficiënte codeer- en agentworkflows, met hogere gelijktijdigheid voor commercieel gebruik.", "MiniMax-M2.1-Lightning.description": "Krachtige meertalige programmeermogelijkheden, een volledig vernieuwde programmeerervaring. Sneller en efficiënter.", - "MiniMax-M2.1-highspeed.description": "Krachtige meertalige programmeermogelijkheden met snellere en efficiëntere inferentie.", "MiniMax-M2.1.description": "MiniMax-M2.1 is het vlaggenschip open-source grote model van MiniMax, gericht op het oplossen van complexe, realistische taken. De kernkwaliteiten zijn meertalige programmeermogelijkheden en het vermogen om complexe taken als een Agent op te lossen.", "MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Zelfde prestaties, sneller en wendbaarder (ongeveer 100 tps).", - "MiniMax-M2.5-highspeed.description": "Zelfde prestaties als M2.5 met aanzienlijk snellere inferentie.", "MiniMax-M2.5.description": "MiniMax-M2.5 is een vlaggenschip open-source groot model van MiniMax, gericht op het oplossen van complexe real-world taken. De kernsterktes zijn meertalige programmeermogelijkheden en de capaciteit om complexe taken als een Agent op te lossen.", "MiniMax-M2.description": "Speciaal ontwikkeld voor efficiënt coderen en agent-workflows.", "MiniMax-Text-01.description": "MiniMax-01 introduceert grootschalige lineaire aandacht voorbij klassieke Transformers, met 456B parameters en 45,9B geactiveerd per pass. Het levert topprestaties en ondersteunt tot 4M tokens context (32× GPT-4o, 20× Claude-3.5-Sonnet).", @@ -283,9 +281,9 @@ "chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in real-time wordt bijgewerkt. Het combineert sterke taalbegrip- en generatiecapaciteiten voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.", "claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.", "claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.", - "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste next-gen model van Anthropic, met verbeterde vaardigheden en betere prestaties dan de vorige topversie Claude 3 Opus op veel benchmarks.", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic's snelste next-gen model. In vergelijking met Claude 3 Haiku verbetert het op verschillende vaardigheden en overtreft het het vorige grootste model Claude 3 Opus op veel intelligentie benchmarks.", "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku levert snelle reacties voor lichte taken.", - "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is het intelligentste model van Anthropic en het eerste hybride redeneermodel op de markt, met ondersteuning voor vrijwel directe reacties of uitgebreide denkprocessen met nauwkeurige controle.", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is Anthropic's meest intelligente model en het eerste hybride redeneermodel op de markt. Het kan bijna onmiddellijke reacties geven of uitgebreide stapsgewijze redeneringen produceren die gebruikers kunnen volgen. Sonnet is bijzonder sterk in coderen, datawetenschap, visuele taken en agenttaken.", "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.", "claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.", "claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.", @@ -293,17 +291,17 @@ "claude-3.5-sonnet.description": "Claude 3.5 Sonnet blinkt uit in coderen, schrijven en complex redeneren.", "claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet met uitgebreid denkvermogen voor complexe redeneertaken.", "claude-3.7-sonnet.description": "Claude 3.7 Sonnet is een verbeterde versie met uitgebreidere context en mogelijkheden.", - "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en intelligentste Haiku-model van Anthropic, met bliksemsnelle reacties en diepgaand denkvermogen.", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic's snelste en slimste Haiku-model, met bliksemsnelle snelheid en uitgebreide redenering.", "claude-haiku-4.5.description": "Claude Haiku 4.5 is een snel en efficiënt model voor diverse taken.", "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.", - "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest geavanceerde model van Anthropic voor uiterst complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.", - "claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor uiterst complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.", + "claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic's nieuwste en meest capabele model voor zeer complexe taken, uitblinkend in prestaties, intelligentie, vloeiendheid en begrip.", + "claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic's krachtigste model voor zeer complexe taken, uitblinkend in prestaties, intelligentie, vloeiendheid en begrip.", "claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.", - "claude-opus-4-6.description": "Claude Opus 4.6 is het intelligentste model van Anthropic voor het bouwen van agents en programmeren.", + "claude-opus-4-6.description": "Claude Opus 4.6 is Anthropic's meest intelligente model voor het bouwen van agents en coderen.", "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.", - "claude-sonnet-4-20250514.description": "Claude Sonnet 4 is tot nu toe het intelligentste model van Anthropic, met vrijwel directe reacties of stapsgewijze denkprocessen en nauwkeurige controle voor API-gebruikers.", - "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het intelligentste model van Anthropic.", - "claude-sonnet-4-6.description": "Claude Sonnet 4.6 is de beste combinatie van snelheid en intelligentie van Anthropic.", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan bijna onmiddellijke reacties geven of uitgebreide stapsgewijze redeneringen produceren met een zichtbaar proces.", + "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic's meest intelligente model tot nu toe.", + "claude-sonnet-4-6.description": "Claude Sonnet 4.6 is Anthropic's beste combinatie van snelheid en intelligentie.", "claude-sonnet-4.description": "Claude Sonnet 4 is de nieuwste generatie met verbeterde prestaties op alle taken.", "codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.", "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenario’s en is een topmodel onder de 10 miljard parameters.", @@ -373,7 +371,7 @@ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.", "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 is een next-gen redeneermodel met sterkere complexe redeneer- en keten-van-denken-capaciteiten.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is een MoE vision-language model gebaseerd op DeepSeekMoE-27B met sparse activatie, dat sterke prestaties levert met slechts 4,5B actieve parameters. Het blinkt uit in visuele QA, OCR, document-/tabel-/grafiekbegrip en visuele verankering.", - "deepseek-chat.description": "DeepSeek V3.2 biedt een balans tussen redeneervermogen en outputlengte voor dagelijkse vraag-en-antwoord- en agenttaken. Publieke benchmarks bereiken GPT-5-niveau, en het is het eerste model dat denken integreert in het gebruik van tools, wat leidt tot toonaangevende open-source agentbeoordelingen.", + "deepseek-chat.description": "Een nieuw open-source model dat algemene en codevaardigheden combineert. Het behoudt de algemene dialoog van het chatmodel en de sterke codeerprestaties van het coderingsmodel, met een betere voorkeurafstemming. DeepSeek-V2.5 verbetert ook schrijven en het volgen van instructies.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is een codeertaalmodel getraind op 2 biljoen tokens (87% code, 13% Chinees/Engels tekst). Het introduceert een contextvenster van 16K en 'fill-in-the-middle'-taken, wat projectniveau codeaanvulling en fragmentinvoeging mogelijk maakt.", "deepseek-coder-v2.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.", "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.", @@ -396,7 +394,7 @@ "deepseek-r1-fast-online.description": "DeepSeek R1 snelle volledige versie met realtime webzoekfunctie, combineert 671B-capaciteit met snellere reacties.", "deepseek-r1-online.description": "DeepSeek R1 volledige versie met 671B parameters en realtime webzoekfunctie, biedt sterkere begrip- en generatiecapaciteiten.", "deepseek-r1.description": "DeepSeek-R1 gebruikt cold-start data vóór versterkingsleren en presteert vergelijkbaar met OpenAI-o1 op wiskunde, programmeren en redenering.", - "deepseek-reasoner.description": "DeepSeek V3.2 Thinking is een geavanceerd redeneermodel dat eerst een denkproces genereert voor hogere nauwkeurigheid, met topprestaties in competities en redeneervermogen vergelijkbaar met Gemini-3.0-Pro.", + "deepseek-reasoner.description": "DeepSeek V3.2 denkmodus geeft een keten van gedachten voordat het eindantwoord wordt gegeven om de nauwkeurigheid te verbeteren.", "deepseek-v2.description": "DeepSeek V2 is een efficiënt MoE-model voor kosteneffectieve verwerking.", "deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeek’s codegerichte model met sterke codegeneratie.", "deepseek-v3-0324.description": "DeepSeek-V3-0324 is een MoE-model met 671B parameters en uitmuntende prestaties in programmeren, technische vaardigheden, contextbegrip en verwerking van lange teksten.", @@ -491,8 +489,7 @@ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is een snel denkend model met 32K context voor complexe redenatie en meerstapsgesprekken.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview is een preview van een denkmodel voor evaluatie en testen.", "ernie-x1.1.description": "ERNIE X1.1 is een preview van een denkmodel voor evaluatie en testen.", - "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, ontwikkeld door het Seed-team van ByteDance, ondersteunt bewerking en compositie van meerdere afbeeldingen. Het biedt verbeterde onderwerpconsistentie, nauwkeurige opvolging van instructies, ruimtelijk inzicht, esthetische expressie, posterlay-out en logodesign met zeer nauwkeurige tekst-beeldweergave.", - "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, ontwikkeld door ByteDance Seed, ondersteunt tekst- en afbeeldingsinvoer voor zeer controleerbare en hoogwaardige beeldgeneratie op basis van prompts.", + "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is een beeldgeneratiemodel van ByteDance Seed, dat tekst- en beeldinvoer ondersteunt met zeer controleerbare, hoogwaardige beeldgeneratie. Het genereert beelden op basis van tekstprompts.", "fal-ai/flux-kontext/dev.description": "FLUX.1-model gericht op beeldbewerking, met ondersteuning voor tekst- en afbeeldingsinvoer.", "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepteert tekst en referentieafbeeldingen als invoer, waardoor gerichte lokale bewerkingen en complexe wereldwijde scèneaanpassingen mogelijk zijn.", "fal-ai/flux/krea.description": "Flux Krea [dev] is een afbeeldingsgeneratiemodel met een esthetische voorkeur voor realistische, natuurlijke beelden.", @@ -500,8 +497,8 @@ "fal-ai/hunyuan-image/v3.description": "Een krachtig, native multimodaal afbeeldingsgeneratiemodel.", "fal-ai/imagen4/preview.description": "Hoogwaardig afbeeldingsgeneratiemodel van Google.", "fal-ai/nano-banana.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee beeldgeneratie en -bewerking via conversatie mogelijk is.", - "fal-ai/qwen-image-edit.description": "Een professioneel afbeeldingsbewerkingsmodel van het Qwen-team, met ondersteuning voor semantische en uiterlijke bewerkingen, nauwkeurige tekstbewerking in het Chinees/Engels, stijltransformatie, rotatie en meer.", - "fal-ai/qwen-image.description": "Een krachtig beeldgeneratiemodel van het Qwen-team met sterke Chinese tekstrendering en diverse visuele stijlen.", + "fal-ai/qwen-image-edit.description": "Een professioneel beeldbewerkingsmodel van het Qwen-team dat semantische en uiterlijke bewerkingen ondersteunt, nauwkeurig Chinese en Engelse tekst bewerkt, en hoogwaardige bewerkingen mogelijk maakt zoals stijltransfer en objectrotatie.", + "fal-ai/qwen-image.description": "Een krachtig beeldgeneratiemodel van het Qwen-team met indrukwekkende Chinese tekstweergave en diverse visuele stijlen.", "flux-1-schnell.description": "Een tekst-naar-beeldmodel met 12 miljard parameters van Black Forest Labs, dat gebruikmaakt van latente adversariële diffusiedistillatie om hoogwaardige beelden te genereren in 1–4 stappen. Het evenaart gesloten alternatieven en is uitgebracht onder de Apache-2.0-licentie voor persoonlijk, onderzoeks- en commercieel gebruik.", "flux-dev.description": "FLUX.1 [dev] is een open-gewichten gedistilleerd model voor niet-commercieel gebruik. Het behoudt bijna professionele beeldkwaliteit en instructieopvolging, terwijl het efficiënter werkt en middelen beter benut dan standaardmodellen van vergelijkbare grootte.", "flux-kontext-max.description": "State-of-the-art contextuele beeldgeneratie en -bewerking, waarbij tekst en afbeeldingen worden gecombineerd voor nauwkeurige, samenhangende resultaten.", @@ -532,8 +529,6 @@ "gemini-2.0-flash-lite-001.description": "Een variant van Gemini 2.0 Flash geoptimaliseerd voor kostenefficiëntie en lage latentie.", "gemini-2.0-flash-lite.description": "Een variant van Gemini 2.0 Flash geoptimaliseerd voor kostenefficiëntie en lage latentie.", "gemini-2.0-flash.description": "Gemini 2.0 Flash biedt functies van de volgende generatie, waaronder uitzonderlijke snelheid, native toolgebruik, multimodale generatie en een contextvenster van 1 miljoen tokens.", - "gemini-2.5-flash-image-preview.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, dat conversatiegestuurde beeldgeneratie en -bewerking mogelijk maakt.", - "gemini-2.5-flash-image-preview:image.description": "Nano Banana is Google's nieuwste, snelste en meest efficiënte native multimodale model, waarmee conversatiegerichte beeldgeneratie en -bewerking mogelijk is.", "gemini-2.5-flash-image.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee conversatiegestuurde beeldgeneratie en -bewerking mogelijk is.", "gemini-2.5-flash-image:image.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee conversatiegestuurde beeldgeneratie en -bewerking mogelijk is.", "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview is het kleinste en meest kostenefficiënte model van Google, ontworpen voor grootschalig gebruik.", @@ -550,7 +545,7 @@ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's beeldgeneratiemodel en ondersteunt ook multimodale chat.", "gemini-3-pro-preview.description": "Gemini 3 Pro is het krachtigste agent- en vibe-codingmodel van Google, met rijkere visuele output en diepere interactie bovenop geavanceerde redeneercapaciteiten.", "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) is het snelste native beeldgeneratiemodel van Google met denksupport, conversatiebeeldgeneratie en bewerking.", - "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) levert Pro-niveau beeldkwaliteit met Flash-snelheid en ondersteuning voor multimodale chat.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) is Google's snelste native beeldgeneratiemodel met denkondersteuning, conversatiebeeldgeneratie en bewerking.", "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview verbetert Gemini 3 Pro met verbeterde redeneercapaciteiten en voegt ondersteuning toe voor een gemiddeld denkniveau.", "gemini-flash-latest.description": "Nieuwste versie van Gemini Flash.", "gemini-flash-lite-latest.description": "Nieuwste versie van Gemini Flash-Lite.", @@ -692,7 +687,6 @@ "gpt-oss:120b.description": "GPT-OSS 120B is OpenAI’s grote open-source LLM met MXFP4-kwantisatie en gepositioneerd als vlaggenschipmodel. Het vereist multi-GPU- of high-end werkstationomgevingen en levert uitstekende prestaties in complexe redenering, codegeneratie en meertalige verwerking, met geavanceerde functieaanroepen en toolintegratie.", "gpt-oss:20b.description": "GPT-OSS 20B is een open-source LLM van OpenAI met MXFP4-kwantisatie, geschikt voor high-end consument-GPU’s of Apple Silicon Macs. Het presteert goed in dialooggeneratie, programmeren en redeneertaken, en ondersteunt functieaanroepen en toolgebruik.", "gpt-realtime.description": "Een algemeen realtime model dat realtime tekst- en audio-invoer/-uitvoer ondersteunt, plus afbeeldingsinvoer.", - "grok-2-image-1212.description": "Ons nieuwste afbeeldingsgeneratiemodel creëert levendige, realistische beelden op basis van prompts en blinkt uit in marketing-, sociale media- en entertainmenttoepassingen.", "grok-2-vision-1212.description": "Verbeterde nauwkeurigheid, instructieopvolging en meertalige mogelijkheden.", "grok-3-mini.description": "Een lichtgewicht model dat eerst nadenkt voordat het antwoordt. Snel en slim voor logische taken die geen diepgaande domeinkennis vereisen, met toegang tot ruwe redeneertracering.", "grok-3.description": "Een vlaggenschipmodel dat uitblinkt in zakelijke toepassingen zoals gegevensextractie, programmeren en samenvatten, met diepgaande domeinkennis in financiën, gezondheidszorg, recht en wetenschap.", @@ -1141,7 +1135,11 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking is een multimodaal keten-van-gedachten model voor gedetailleerde visuele redenering.", "qwen3-vl-flash.description": "Qwen3 VL Flash: lichtgewicht, snelle redeneerversie voor latency-gevoelige of grootschalige verzoeken.", "qwen3-vl-plus.description": "Qwen VL is een tekstgeneratiemodel met visueel begrip. Het kan OCR uitvoeren en ook samenvatten en redeneren, zoals het extraheren van kenmerken uit productfoto’s of het oplossen van problemen op basis van afbeeldingen.", + "qwen3.5-122b-a10b.description": "Ondersteunt tekst-, beeld- en video-invoer. Voor alleen teksttaken is de prestatie vergelijkbaar met Qwen3 Max, met hogere efficiëntie en lagere kosten. In multimodale capaciteiten biedt het aanzienlijke verbeteringen ten opzichte van de Qwen3 VL-serie.", + "qwen3.5-27b.description": "Ondersteunt tekst-, beeld- en video-invoer. Voor alleen teksttaken is de prestatie vergelijkbaar met Qwen3 Max, met hogere efficiëntie en lagere kosten. In multimodale capaciteiten biedt het aanzienlijke verbeteringen ten opzichte van de Qwen3 VL-serie.", + "qwen3.5-35b-a3b.description": "Ondersteunt tekst-, beeld- en video-invoer. Voor alleen teksttaken is de prestatie vergelijkbaar met Qwen3 Max, met hogere efficiëntie en lagere kosten. In multimodale capaciteiten biedt het aanzienlijke verbeteringen ten opzichte van de Qwen3 VL-serie.", "qwen3.5-397b-a17b.description": "Ondersteunt tekst-, beeld- en video-invoer. Voor alleen teksttaken is de prestatie vergelijkbaar met Qwen3 Max, met hogere efficiëntie en lagere kosten. In multimodale capaciteiten levert het significante verbeteringen ten opzichte van de Qwen3 VL-serie.", + "qwen3.5-flash.description": "Snelste en goedkoopste Qwen-model, ideaal voor eenvoudige taken.", "qwen3.5-plus.description": "Qwen3.5 Plus ondersteunt tekst-, beeld- en video-invoer. De prestaties op pure teksttaken zijn vergelijkbaar met Qwen3 Max, met betere prestaties en lagere kosten. De multimodale capaciteiten zijn aanzienlijk verbeterd in vergelijking met de Qwen3 VL-serie.", "qwen3.5:397b.description": "Qwen3.5 is een verenigd visie-taal funderingsmodel met een hybride architectuur (Mixture-of-Experts + lineaire aandacht), dat sterke multimodale redenering, codering en lange-contextcapaciteiten biedt met een 256K contextvenster.", "qwen3.description": "Qwen3 is Alibaba’s volgende generatie groot taalmodel met sterke prestaties in diverse toepassingen.", @@ -1151,8 +1149,6 @@ "qwq.description": "QwQ is een redeneermodel binnen de Qwen-familie. In vergelijking met standaard instructie-getrainde modellen biedt het denk- en redeneervermogen dat de prestaties op complexe problemen aanzienlijk verbetert. QwQ-32B is een middelgroot redeneermodel dat zich kan meten met topmodellen zoals DeepSeek-R1 en o1-mini.", "qwq_32b.description": "Middelgroot redeneermodel binnen de Qwen-familie. In vergelijking met standaard instructie-getrainde modellen verbeteren QwQ’s denk- en redeneervermogen de prestaties op complexe problemen aanzienlijk.", "r1-1776.description": "R1-1776 is een na-getrainde variant van DeepSeek R1, ontworpen om ongecensureerde, onbevooroordeelde feitelijke informatie te bieden.", - "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro van ByteDance ondersteunt tekst-naar-video, beeld-naar-video (eerste frame, eerste+laatste frame) en audiogeneratie gesynchroniseerd met visuele elementen.", - "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite van BytePlus biedt web-gebaseerde generatie voor real-time informatie, verbeterde interpretatie van complexe prompts en verbeterde referentieconsistentie voor professionele visuele creatie.", "solar-mini-ja.description": "Solar Mini (Ja) breidt Solar Mini uit met focus op Japans, terwijl het efficiënte, sterke prestaties in Engels en Koreaans behoudt.", "solar-mini.description": "Solar Mini is een compact LLM dat beter presteert dan GPT-3.5, met sterke meertalige ondersteuning voor Engels en Koreaans, en biedt een efficiënte oplossing met een kleine voetafdruk.", "solar-pro.description": "Solar Pro is een intelligent LLM van Upstage, gericht op instructieopvolging op een enkele GPU, met IFEval-scores boven de 80. Momenteel ondersteunt het Engels; de volledige release stond gepland voor november 2024 met uitgebreidere taalondersteuning en langere context.", diff --git a/locales/nl-NL/providers.json b/locales/nl-NL/providers.json index 83f75240f3..6519eec0f9 100644 --- a/locales/nl-NL/providers.json +++ b/locales/nl-NL/providers.json @@ -30,7 +30,6 @@ "internlm.description": "Een open-source organisatie gericht op grootschalig modelonderzoek en tooling, met een efficiënt en gebruiksvriendelijk platform dat geavanceerde modellen en algoritmen toegankelijk maakt.", "jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.", "lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLM’s op je eigen computer.", - "lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.", "minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.", "mistral.description": "Mistral biedt geavanceerde algemene, gespecialiseerde en onderzoeksmodellen voor complexe redenering, meertalige taken en codegeneratie, met functie-aanroepen voor aangepaste integraties.", "modelscope.description": "ModelScope is het model-as-a-service platform van Alibaba Cloud, met een breed scala aan AI-modellen en inferentiediensten.", diff --git a/locales/pl-PL/agent.json b/locales/pl-PL/agent.json new file mode 100644 index 0000000000..5fc0c9c555 --- /dev/null +++ b/locales/pl-PL/agent.json @@ -0,0 +1,34 @@ +{ + "integration.applicationId": "ID aplikacji / Nazwa użytkownika bota", + "integration.applicationIdPlaceholder": "np. 1234567890", + "integration.botToken": "Token bota / Klucz API", + "integration.botTokenEncryptedHint": "Token zostanie zaszyfrowany i bezpiecznie przechowany.", + "integration.botTokenHowToGet": "Jak uzyskać?", + "integration.botTokenPlaceholderExisting": "Token jest ukryty ze względów bezpieczeństwa", + "integration.botTokenPlaceholderNew": "Wklej tutaj token swojego bota", + "integration.connectionConfig": "Konfiguracja połączenia", + "integration.copied": "Skopiowano do schowka", + "integration.copy": "Kopiuj", + "integration.deleteConfirm": "Czy na pewno chcesz usunąć tę integrację?", + "integration.disabled": "Wyłączone", + "integration.discord.description": "Połącz tego asystenta z serwerem Discord, aby umożliwić czatowanie na kanałach i wysyłanie wiadomości bezpośrednich.", + "integration.documentation": "Dokumentacja", + "integration.enabled": "Włączone", + "integration.endpointUrl": "URL punktu końcowego interakcji", + "integration.endpointUrlHint": "Proszę skopiować ten URL i wkleić go w pole \"Interactions Endpoint URL\" w Portalu Deweloperskim {{name}}.", + "integration.platforms": "Platformy", + "integration.publicKey": "Klucz publiczny", + "integration.publicKeyPlaceholder": "Wymagany do weryfikacji interakcji", + "integration.removeFailed": "Nie udało się usunąć integracji", + "integration.removeIntegration": "Usuń integrację", + "integration.removed": "Integracja usunięta", + "integration.save": "Zapisz konfigurację", + "integration.saveFailed": "Nie udało się zapisać konfiguracji", + "integration.saveFirstWarning": "Proszę najpierw zapisać konfigurację", + "integration.saved": "Konfiguracja zapisana pomyślnie", + "integration.testConnection": "Przetestuj połączenie", + "integration.testFailed": "Test połączenia nie powiódł się", + "integration.testSuccess": "Test połączenia zakończony sukcesem", + "integration.updateFailed": "Nie udało się zaktualizować statusu", + "integration.validationError": "Proszę wypełnić ID aplikacji i token" +} diff --git a/locales/pl-PL/chat.json b/locales/pl-PL/chat.json index 6b65a1b279..8210cf9ca9 100644 --- a/locales/pl-PL/chat.json +++ b/locales/pl-PL/chat.json @@ -336,6 +336,7 @@ "supervisor.todoList.allComplete": "Wszystkie zadania ukończone", "supervisor.todoList.title": "Zadania ukończone", "tab.groupProfile": "Profil grupy", + "tab.integration": "Integracja", "tab.profile": "Profil agenta", "tab.search": "Szukaj", "task.activity.calling": "Wywoływanie umiejętności...", diff --git a/locales/pl-PL/common.json b/locales/pl-PL/common.json index e691fe2913..482334e72b 100644 --- a/locales/pl-PL/common.json +++ b/locales/pl-PL/common.json @@ -209,7 +209,6 @@ "delete": "Usuń", "document": "Instrukcja obsługi", "download": "Pobierz", - "downloadClient": "Pobierz klienta", "duplicate": "Duplikuj", "edit": "Edytuj", "errors.invalidFileFormat": "Nieprawidłowy format pliku", @@ -256,6 +255,7 @@ "footer.star.title": "Oceń nas na GitHubie", "footer.title": "Podoba Ci się nasz produkt?", "fullscreen": "Tryb pełnoekranowy", + "getDesktopApp": "Pobierz aplikację na komputer", "historyRange": "Zakres historii", "home.suggestQuestions": "Wypróbuj te przykłady", "import": "Importuj", diff --git a/locales/pl-PL/models.json b/locales/pl-PL/models.json index fc12061671..6a2e4c550b 100644 --- a/locales/pl-PL/models.json +++ b/locales/pl-PL/models.json @@ -77,10 +77,8 @@ "MiniMax-M1.description": "Nowy wewnętrzny model rozumowania z 80 tys. łańcuchów myślowych i 1 mln tokenów wejściowych, oferujący wydajność porównywalną z czołowymi modelami światowymi.", "MiniMax-M2-Stable.description": "Zaprojektowany z myślą o wydajnym kodowaniu i przepływach pracy agentów, z większą równoległością dla zastosowań komercyjnych.", "MiniMax-M2.1-Lightning.description": "Potężne możliwości programowania wielojęzycznego, kompleksowo ulepszone doświadczenie programistyczne. Szybsze i bardziej wydajne.", - "MiniMax-M2.1-highspeed.description": "Potężne wielojęzyczne możliwości programowania z szybszym i bardziej efektywnym wnioskowaniem.", "MiniMax-M2.1.description": "MiniMax-M2.1 to flagowy, otwartoźródłowy model dużej skali od MiniMax, zaprojektowany do rozwiązywania złożonych zadań rzeczywistych. Jego główne atuty to wielojęzyczne możliwości programistyczne oraz zdolność działania jako Agent do rozwiązywania skomplikowanych problemów.", "MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Ta sama wydajność, szybszy i bardziej zwinny (około 100 tps).", - "MiniMax-M2.5-highspeed.description": "Ta sama wydajność co M2.5, z znacząco szybszym wnioskowaniem.", "MiniMax-M2.5.description": "MiniMax-M2.5 to flagowy otwartoźródłowy duży model od MiniMax, skoncentrowany na rozwiązywaniu złożonych zadań rzeczywistych. Jego główne zalety to wielojęzyczne możliwości programowania i zdolność do rozwiązywania złożonych zadań jako Agent.", "MiniMax-M2.description": "Stworzony specjalnie z myślą o efektywnym kodowaniu i przepływach pracy agentów", "MiniMax-Text-01.description": "MiniMax-01 wprowadza dużą skalę uwagi liniowej wykraczającą poza klasyczne Transformatory, z 456 mld parametrów i 45,9 mld aktywowanych na przebieg. Osiąga najwyższą wydajność i obsługuje do 4 mln tokenów kontekstu (32× GPT-4o, 20× Claude-3.5-Sonnet).", @@ -283,9 +281,9 @@ "chatgpt-4o-latest.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym. Łączy silne zrozumienie języka i generowanie, co czyni go idealnym do zastosowań na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.", "claude-2.0.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.", "claude-2.1.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.", - "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic, oferujący ulepszone umiejętności i przewyższający poprzedni flagowy model Claude 3 Opus w wielu testach porównawczych.", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji firmy Anthropic. W porównaniu do Claude 3 Haiku, poprawia swoje umiejętności i przewyższa wcześniejszy największy model Claude 3 Opus w wielu testach inteligencji.", "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku zapewnia szybkie odpowiedzi w lekkich zadaniach.", - "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 to najbardziej inteligentny model Anthropic i pierwszy na rynku model hybrydowego rozumowania, oferujący błyskawiczne odpowiedzi lub pogłębione myślenie z precyzyjną kontrolą.", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet to najbardziej inteligentny model firmy Anthropic i pierwszy model hybrydowego rozumowania na rynku. Może generować niemal natychmiastowe odpowiedzi lub rozbudowane, krok po kroku rozumowanie widoczne dla użytkownika. Sonnet jest szczególnie silny w kodowaniu, analizie danych, wizji komputerowej i zadaniach agentowych.", "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.", "claude-3-haiku-20240307.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model firmy Anthropic, zaprojektowany do natychmiastowych odpowiedzi z szybką i dokładną wydajnością.", "claude-3-opus-20240229.description": "Claude 3 Opus to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.", @@ -293,17 +291,17 @@ "claude-3.5-sonnet.description": "Claude 3.5 Sonnet wyróżnia się w programowaniu, pisaniu i złożonym rozumowaniu.", "claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet z rozszerzonym myśleniem do złożonych zadań wymagających rozumowania.", "claude-3.7-sonnet.description": "Claude 3.7 Sonnet to ulepszona wersja z rozszerzonym kontekstem i możliwościami.", - "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najbardziej inteligentny model Haiku od Anthropic, łączący błyskawiczne działanie z pogłębionym rozumowaniem.", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najinteligentniejszy model Haiku firmy Anthropic, oferujący błyskawiczną prędkość i rozszerzone rozumowanie.", "claude-haiku-4.5.description": "Claude Haiku 4.5 to szybki i wydajny model do różnorodnych zadań.", "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking to zaawansowany wariant, który może ujawniać swój proces rozumowania.", - "claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model Anthropic do złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.", - "claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do złożonych zadań, oferujący najwyższą wydajność, inteligencję, płynność i zrozumienie.", + "claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model firmy Anthropic do wysoce złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.", + "claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model firmy Anthropic do wysoce złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.", "claude-opus-4-5-20251101.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący wyjątkową inteligencję z wydajnością na dużą skalę, idealny do złożonych zadań wymagających najwyższej jakości odpowiedzi i rozumowania.", - "claude-opus-4-6.description": "Claude Opus 4.6 to najbardziej inteligentny model Anthropic do tworzenia agentów i programowania.", + "claude-opus-4-6.description": "Claude Opus 4.6 to najbardziej inteligentny model firmy Anthropic do budowy agentów i kodowania.", "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking może generować natychmiastowe odpowiedzi lub rozszerzone rozumowanie krok po kroku z widocznym procesem.", - "claude-sonnet-4-20250514.description": "Claude Sonnet 4 to najbardziej inteligentny model Anthropic, oferujący błyskawiczne odpowiedzi lub pogłębione, krok po kroku rozumowanie z precyzyjną kontrolą dla użytkowników API.", - "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to najbardziej inteligentny model Anthropic do tej pory.", - "claude-sonnet-4-6.description": "Claude Sonnet 4.6 to najlepsze połączenie szybkości i inteligencji od Anthropic.", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4 może generować niemal natychmiastowe odpowiedzi lub rozbudowane, krok po kroku myślenie z widocznym procesem.", + "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to najbardziej inteligentny model firmy Anthropic do tej pory.", + "claude-sonnet-4-6.description": "Claude Sonnet 4.6 to najlepsze połączenie prędkości i inteligencji firmy Anthropic.", "claude-sonnet-4.description": "Claude Sonnet 4 to najnowsza generacja z ulepszoną wydajnością we wszystkich zadaniach.", "codegeex-4.description": "CodeGeeX-4 to potężny asystent programistyczny AI, obsługujący wielojęzyczne pytania i uzupełnianie kodu w celu zwiększenia produktywności programistów.", "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B to wielojęzyczny model generowania kodu obsługujący uzupełnianie i generowanie kodu, interpretację kodu, wyszukiwanie w sieci, wywoływanie funkcji i pytania na poziomie repozytorium. Obejmuje szeroki zakres scenariuszy programistycznych i jest jednym z najlepszych modeli kodu poniżej 10B parametrów.", @@ -373,7 +371,7 @@ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.", "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 to model rozumowania nowej generacji z ulepszonymi zdolnościami do rozwiązywania złożonych problemów i myślenia łańcuchowego.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 to model językowo-wizualny MoE oparty na DeepSeekMoE-27B z rzadką aktywacją, osiągający wysoką wydajność przy zaledwie 4,5B aktywnych parametrów. Wyróżnia się w zadaniach QA wizualnych, OCR, rozumieniu dokumentów/tabel/wykresów i ugruntowaniu wizualnym.", - "deepseek-chat.description": "DeepSeek V3.2 łączy rozumowanie i długość odpowiedzi, idealny do codziennych zadań QA i agentów. Osiąga poziom GPT-5 w publicznych benchmarkach i jako pierwszy integruje myślenie z użyciem narzędzi, prowadząc w ocenach agentów open-source.", + "deepseek-chat.description": "Nowy model open-source łączący ogólne zdolności i umiejętności kodowania. Zachowuje ogólny dialog modelu czatu i silne kodowanie modelu programistycznego, z lepszym dopasowaniem preferencji. DeepSeek-V2.5 poprawia również pisanie i wykonywanie instrukcji.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B to model języka kodu wytrenowany na 2T tokenach (87% kod, 13% tekst chiński/angielski). Wprowadza okno kontekstu 16K i zadania uzupełniania w środku, oferując uzupełnianie kodu na poziomie projektu i wypełnianie fragmentów.", "deepseek-coder-v2.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.", "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 to open-source’owy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.", @@ -396,7 +394,7 @@ "deepseek-r1-fast-online.description": "Szybka pełna wersja DeepSeek R1 z wyszukiwaniem w czasie rzeczywistym, łącząca możliwości modelu 671B z szybszymi odpowiedziami.", "deepseek-r1-online.description": "Pełna wersja DeepSeek R1 z 671 miliardami parametrów i wyszukiwaniem w czasie rzeczywistym, oferująca lepsze rozumienie i generowanie.", "deepseek-r1.description": "DeepSeek-R1 wykorzystuje dane startowe przed RL i osiąga wyniki porównywalne z OpenAI-o1 w zadaniach matematycznych, programistycznych i logicznych.", - "deepseek-reasoner.description": "DeepSeek V3.2 Thinking to model głębokiego rozumowania, który generuje łańcuch myśli przed odpowiedzią dla większej precyzji, osiągając czołowe wyniki i rozumowanie porównywalne z Gemini-3.0-Pro.", + "deepseek-reasoner.description": "Tryb myślenia DeepSeek V3.2 generuje łańcuch myśli przed ostateczną odpowiedzią, aby poprawić dokładność.", "deepseek-v2.description": "DeepSeek V2 to wydajny model MoE zoptymalizowany pod kątem efektywności kosztowej.", "deepseek-v2:236b.description": "DeepSeek V2 236B to model skoncentrowany na kodzie, oferujący zaawansowane generowanie kodu.", "deepseek-v3-0324.description": "DeepSeek-V3-0324 to model MoE z 671 miliardami parametrów, wyróżniający się w programowaniu, rozumieniu kontekstu i obsłudze długich tekstów.", @@ -491,8 +489,7 @@ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K to szybki model rozumowania z kontekstem 32K do złożonego rozumowania i dialogów wieloetapowych.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview to podgląd modelu rozumowania do oceny i testów.", "ernie-x1.1.description": "ERNIE X1.1 to model rozumowania w wersji podglądowej do oceny i testowania.", - "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, stworzony przez zespół Seed ByteDance, obsługuje edycję i kompozycję wielu obrazów. Oferuje lepszą spójność tematyczną, precyzyjne wykonywanie poleceń, rozumienie logiki przestrzennej, ekspresję estetyczną, układ plakatów i projektowanie logo z wysoką precyzją renderowania tekstu i obrazu.", - "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, opracowany przez ByteDance Seed, obsługuje wejścia tekstowe i obrazowe do generowania wysokiej jakości obrazów z dużą kontrolą nad wynikiem.", + "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 to model generowania obrazów firmy ByteDance Seed, obsługujący wejścia tekstowe i obrazowe z wysoce kontrolowaną, wysokiej jakości generacją obrazów. Generuje obrazy na podstawie tekstowych wskazówek.", "fal-ai/flux-kontext/dev.description": "Model FLUX.1 skoncentrowany na edycji obrazów, obsługujący wejścia tekstowe i obrazowe.", "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] przyjmuje tekst i obrazy referencyjne jako dane wejściowe, umożliwiając lokalne edycje i złożone transformacje sceny.", "fal-ai/flux/krea.description": "Flux Krea [dev] to model generowania obrazów z estetycznym ukierunkowaniem na bardziej realistyczne, naturalne obrazy.", @@ -500,8 +497,8 @@ "fal-ai/hunyuan-image/v3.description": "Potężny natywny model multimodalny do generowania obrazów.", "fal-ai/imagen4/preview.description": "Model generowania obrazów wysokiej jakości od Google.", "fal-ai/nano-banana.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający generowanie i edycję obrazów w rozmowie.", - "fal-ai/qwen-image-edit.description": "Profesjonalny model edycji obrazów od zespołu Qwen, obsługujący edycję semantyczną i wizualną, precyzyjną edycję tekstu w języku chińskim i angielskim, transfer stylu, obracanie i inne funkcje.", - "fal-ai/qwen-image.description": "Zaawansowany model generowania obrazów od zespołu Qwen, oferujący silne renderowanie tekstu chińskiego i różnorodne style wizualne.", + "fal-ai/qwen-image-edit.description": "Profesjonalny model edycji obrazów zespołu Qwen, który obsługuje edycje semantyczne i wyglądu, precyzyjnie edytuje tekst w języku chińskim i angielskim oraz umożliwia wysokiej jakości edycje, takie jak transfer stylu i obrót obiektów.", + "fal-ai/qwen-image.description": "Potężny model generowania obrazów zespołu Qwen z imponującym renderowaniem tekstu w języku chińskim i różnorodnymi stylami wizualnymi.", "flux-1-schnell.description": "Model tekst-na-obraz z 12 miliardami parametrów od Black Forest Labs, wykorzystujący latent adversarial diffusion distillation do generowania wysokiej jakości obrazów w 1–4 krokach. Dorównuje zamkniętym alternatywom i jest dostępny na licencji Apache-2.0 do użytku osobistego, badawczego i komercyjnego.", "flux-dev.description": "FLUX.1 [dev] to model z otwartymi wagami do użytku niekomercyjnego. Zachowuje jakość obrazu zbliżoną do wersji pro i przestrzeganie instrukcji, działając przy tym wydajniej niż standardowe modele o podobnym rozmiarze.", "flux-kontext-max.description": "Najnowocześniejsze generowanie i edycja obrazów kontekstowych, łączące tekst i obrazy dla precyzyjnych, spójnych wyników.", @@ -532,8 +529,6 @@ "gemini-2.0-flash-lite-001.description": "Wariant Gemini 2.0 Flash zoptymalizowany pod kątem efektywności kosztowej i niskich opóźnień.", "gemini-2.0-flash-lite.description": "Wariant Gemini 2.0 Flash zoptymalizowany pod kątem efektywności kosztowej i niskich opóźnień.", "gemini-2.0-flash.description": "Gemini 2.0 Flash oferuje funkcje nowej generacji, w tym wyjątkową szybkość, natywną obsługę narzędzi, generowanie multimodalne i kontekst o długości 1 miliona tokenów.", - "gemini-2.5-flash-image-preview.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.", - "gemini-2.5-flash-image-preview:image.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.", "gemini-2.5-flash-image.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.", "gemini-2.5-flash-image:image.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.", "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview to najmniejszy i najbardziej opłacalny model Google, zaprojektowany do zastosowań na dużą skalę.", @@ -547,10 +542,10 @@ "gemini-2.5-pro.description": "Gemini 2.5 Pro to flagowy model rozumowania Google z obsługą długiego kontekstu do złożonych zadań.", "gemini-3-flash-preview.description": "Gemini 3 Flash to najszybszy i najinteligentniejszy model, łączący najnowsze osiągnięcia AI z doskonałym osadzeniem w wynikach wyszukiwania.", "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów od Google, który obsługuje również dialogi multimodalne.", - "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów od Google, który obsługuje również czat multimodalny.", + "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów firmy Google, który obsługuje również czat multimodalny.", "gemini-3-pro-preview.description": "Gemini 3 Pro to najpotężniejszy model agenta i kodowania nastrojów od Google, oferujący bogatsze wizualizacje i głębszą interakcję przy zaawansowanym rozumowaniu.", "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) to najszybszy natywny model generowania obrazów od Google z obsługą myślenia, generowaniem obrazów w rozmowach i edycją.", - "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) oferuje jakość obrazu na poziomie Pro w błyskawicznym tempie, wspierając multimodalne rozmowy.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) to najszybszy natywny model generowania obrazów firmy Google z obsługą myślenia, generowaniem obrazów w rozmowie i edycją.", "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview ulepsza Gemini 3 Pro, oferując lepsze zdolności rozumowania i wsparcie dla średniego poziomu myślenia.", "gemini-flash-latest.description": "Najnowsza wersja Gemini Flash", "gemini-flash-lite-latest.description": "Najnowsza wersja Gemini Flash-Lite", @@ -692,7 +687,6 @@ "gpt-oss:120b.description": "GPT-OSS 120B to duży otwartoźródłowy model językowy OpenAI wykorzystujący kwantyzację MXFP4, pozycjonowany jako model flagowy. Wymaga środowiska z wieloma GPU lub zaawansowanej stacji roboczej i zapewnia doskonałą wydajność w złożonym rozumowaniu, generowaniu kodu i przetwarzaniu wielojęzycznym, z zaawansowanym wywoływaniem funkcji i integracją narzędzi.", "gpt-oss:20b.description": "GPT-OSS 20B to otwartoźródłowy model językowy OpenAI wykorzystujący kwantyzację MXFP4, odpowiedni dla zaawansowanych GPU konsumenckich lub komputerów Mac z Apple Silicon. Dobrze sprawdza się w generowaniu dialogów, kodowaniu i zadaniach rozumowania, wspierając wywoływanie funkcji i użycie narzędzi.", "gpt-realtime.description": "Ogólny model czasu rzeczywistego obsługujący wejście/wyjście tekstowe i audio oraz wejście obrazowe.", - "grok-2-image-1212.description": "Nasz najnowszy model generowania obrazów tworzy żywe, realistyczne obrazy na podstawie promptów i doskonale sprawdza się w marketingu, mediach społecznościowych i rozrywce.", "grok-2-vision-1212.description": "Ulepszona dokładność, lepsze podążanie za instrukcjami i obsługa wielu języków.", "grok-3-mini.description": "Lekki model, który myśli przed odpowiedzią. Szybki i inteligentny w zadaniach logicznych niewymagających głębokiej wiedzy dziedzinowej, z dostępem do surowych śladów rozumowania.", "grok-3.description": "Flagowy model doskonały w zastosowaniach korporacyjnych, takich jak ekstrakcja danych, kodowanie i podsumowywanie, z głęboką wiedzą dziedzinową w finansach, opiece zdrowotnej, prawie i nauce.", @@ -1141,7 +1135,11 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking to multimodalny model łańcucha myśli do szczegółowego rozumowania wizualnego.", "qwen3-vl-flash.description": "Qwen3 VL Flash: lekka, szybka wersja rozumująca do zadań wrażliwych na opóźnienia lub o dużym wolumenie.", "qwen3-vl-plus.description": "Qwen VL to model generowania tekstu z rozumieniem wizji. Potrafi wykonywać OCR, podsumowywać i rozumować, np. wyodrębniać atrybuty ze zdjęć produktów lub rozwiązywać problemy na podstawie obrazów.", + "qwen3.5-122b-a10b.description": "Obsługuje wejścia tekstowe, obrazowe i wideo. W zadaniach tekstowych jego wydajność jest porównywalna z Qwen3 Max, oferując wyższą efektywność i niższe koszty. W zakresie możliwości multimodalnych zapewnia znaczące ulepszenia w porównaniu do serii Qwen3 VL.", + "qwen3.5-27b.description": "Obsługuje wejścia tekstowe, obrazowe i wideo. W zadaniach tekstowych jego wydajność jest porównywalna z Qwen3 Max, oferując wyższą efektywność i niższe koszty. W zakresie możliwości multimodalnych zapewnia znaczące ulepszenia w porównaniu do serii Qwen3 VL.", + "qwen3.5-35b-a3b.description": "Obsługuje wejścia tekstowe, obrazowe i wideo. W zadaniach tekstowych jego wydajność jest porównywalna z Qwen3 Max, oferując wyższą efektywność i niższe koszty. W zakresie możliwości multimodalnych zapewnia znaczące ulepszenia w porównaniu do serii Qwen3 VL.", "qwen3.5-397b-a17b.description": "Obsługuje wejścia tekstowe, obrazowe i wideo. W przypadku zadań tekstowych jego wydajność jest porównywalna z Qwen3 Max, oferując wyższą efektywność i niższe koszty. W zakresie możliwości multimodalnych oferuje znaczące ulepszenia w porównaniu z serią Qwen3 VL.", + "qwen3.5-flash.description": "Najszybszy i najtańszy model Qwen, idealny do prostych zadań.", "qwen3.5-plus.description": "Qwen3.5 Plus obsługuje tekst, obraz i wideo jako dane wejściowe. Jego wydajność w zadaniach tekstowych jest porównywalna z Qwen3 Max, z lepszą wydajnością i niższymi kosztami. Jego możliwości multimodalne są znacznie ulepszone w porównaniu do serii Qwen3 VL.", "qwen3.5:397b.description": "Qwen3.5 to zunifikowany model podstawowy wizja-język z hybrydową architekturą (Mixture-of-Experts + uwaga liniowa), oferujący silne rozumowanie multimodalne, kodowanie i zdolności do pracy z długim kontekstem z oknem kontekstowym 256K.", "qwen3.description": "Qwen3 to nowej generacji duży model językowy Alibaba o wysokiej wydajności w różnych zastosowaniach.", @@ -1151,8 +1149,6 @@ "qwq.description": "QwQ to model rozumowania z rodziny Qwen. W porównaniu do standardowych modeli dostrojonych instrukcyjnie, oferuje zaawansowane myślenie i rozumowanie, co znacząco poprawia wydajność w zadaniach trudnych. QwQ-32B to model średniej wielkości, konkurujący z czołowymi modelami rozumowania, takimi jak DeepSeek-R1 i o1-mini.", "qwq_32b.description": "Model rozumowania średniej wielkości z rodziny Qwen. W porównaniu do standardowych modeli dostrojonych instrukcyjnie, zdolności myślenia i rozumowania QwQ znacząco poprawiają wydajność w trudnych zadaniach.", "r1-1776.description": "R1-1776 to wariant modelu DeepSeek R1 po dodatkowym treningu, zaprojektowany do dostarczania nieocenzurowanych, bezstronnych informacji faktograficznych.", - "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro od ByteDance obsługuje generowanie wideo z tekstu, obrazu (pierwsza klatka, pierwsza + ostatnia klatka) oraz dźwięku zsynchronizowanego z obrazem.", - "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite od BytePlus oferuje generowanie wspomagane wyszukiwaniem w sieci w czasie rzeczywistym, ulepszoną interpretację złożonych wskazówek i lepszą spójność odniesień dla profesjonalnej kreacji wizualnej.", "solar-mini-ja.description": "Solar Mini (Ja) rozszerza Solar Mini o nacisk na język japoński, zachowując jednocześnie wydajność w języku angielskim i koreańskim.", "solar-mini.description": "Solar Mini to kompaktowy model LLM, który przewyższa GPT-3.5, oferując silne możliwości wielojęzyczne w języku angielskim i koreańskim oraz efektywne działanie przy małych zasobach.", "solar-pro.description": "Solar Pro to inteligentny model LLM od Upstage, skoncentrowany na wykonywaniu instrukcji na pojedynczym GPU, z wynikami IFEval powyżej 80. Obecnie obsługuje język angielski; pełna wersja z rozszerzonym wsparciem językowym i dłuższym kontekstem planowana jest na listopad 2024.", diff --git a/locales/pl-PL/providers.json b/locales/pl-PL/providers.json index 6ef6648baf..9a31736988 100644 --- a/locales/pl-PL/providers.json +++ b/locales/pl-PL/providers.json @@ -30,7 +30,6 @@ "internlm.description": "Organizacja open-source skupiona na badaniach nad dużymi modelami i narzędziach, oferująca wydajną i łatwą w użyciu platformę udostępniającą najnowsze modele i algorytmy.", "jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.", "lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.", - "lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API do uzyskiwania dostępu do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.", "minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.", "mistral.description": "Mistral oferuje zaawansowane modele ogólne, specjalistyczne i badawcze do złożonego rozumowania, zadań wielojęzycznych i generowania kodu, z obsługą wywołań funkcji do niestandardowych integracji.", "modelscope.description": "ModelScope to platforma model-as-a-service Alibaba Cloud, oferująca szeroki wybór modeli AI i usług inferencyjnych.", diff --git a/locales/pt-BR/agent.json b/locales/pt-BR/agent.json new file mode 100644 index 0000000000..e05f4324a8 --- /dev/null +++ b/locales/pt-BR/agent.json @@ -0,0 +1,34 @@ +{ + "integration.applicationId": "ID do Aplicativo / Nome de Usuário do Bot", + "integration.applicationIdPlaceholder": "ex.: 1234567890", + "integration.botToken": "Token do Bot / Chave de API", + "integration.botTokenEncryptedHint": "O token será criptografado e armazenado com segurança.", + "integration.botTokenHowToGet": "Como obter?", + "integration.botTokenPlaceholderExisting": "O token está oculto por segurança", + "integration.botTokenPlaceholderNew": "Cole o token do seu bot aqui", + "integration.connectionConfig": "Configuração de Conexão", + "integration.copied": "Copiado para a área de transferência", + "integration.copy": "Copiar", + "integration.deleteConfirm": "Tem certeza de que deseja remover esta integração?", + "integration.disabled": "Desativado", + "integration.discord.description": "Conecte este assistente ao servidor Discord para bate-papo em canais e mensagens diretas.", + "integration.documentation": "Documentação", + "integration.enabled": "Ativado", + "integration.endpointUrl": "URL do Endpoint de Interação", + "integration.endpointUrlHint": "Por favor, copie este URL e cole no campo \"URL do Endpoint de Interação\" no Portal do Desenvolvedor do {{name}}.", + "integration.platforms": "Plataformas", + "integration.publicKey": "Chave Pública", + "integration.publicKeyPlaceholder": "Necessária para verificação de interação", + "integration.removeFailed": "Falha ao remover a integração", + "integration.removeIntegration": "Remover Integração", + "integration.removed": "Integração removida", + "integration.save": "Salvar Configuração", + "integration.saveFailed": "Falha ao salvar a configuração", + "integration.saveFirstWarning": "Por favor, salve a configuração primeiro", + "integration.saved": "Configuração salva com sucesso", + "integration.testConnection": "Testar Conexão", + "integration.testFailed": "Teste de conexão falhou", + "integration.testSuccess": "Teste de conexão bem-sucedido", + "integration.updateFailed": "Falha ao atualizar o status", + "integration.validationError": "Por favor, preencha o ID do Aplicativo e o Token" +} diff --git a/locales/pt-BR/chat.json b/locales/pt-BR/chat.json index 75f2cd7b54..3595bae847 100644 --- a/locales/pt-BR/chat.json +++ b/locales/pt-BR/chat.json @@ -336,6 +336,7 @@ "supervisor.todoList.allComplete": "Todas as tarefas concluídas", "supervisor.todoList.title": "Tarefas Concluídas", "tab.groupProfile": "Perfil do Grupo", + "tab.integration": "Integração", "tab.profile": "Perfil do Agente", "tab.search": "Buscar", "task.activity.calling": "Chamando Habilidade...", diff --git a/locales/pt-BR/common.json b/locales/pt-BR/common.json index 3ef67fa58a..03c88f6032 100644 --- a/locales/pt-BR/common.json +++ b/locales/pt-BR/common.json @@ -209,7 +209,6 @@ "delete": "Excluir", "document": "Manual do Usuário", "download": "Baixar", - "downloadClient": "Baixar cliente", "duplicate": "Duplicar", "edit": "Editar", "errors.invalidFileFormat": "Formato de arquivo inválido", @@ -256,6 +255,7 @@ "footer.star.title": "Dê uma estrela no GitHub", "footer.title": "Gosta do nosso produto?", "fullscreen": "Modo Tela Cheia", + "getDesktopApp": "Obter Aplicativo para Desktop", "historyRange": "Período do Histórico", "home.suggestQuestions": "Experimente estes exemplos", "import": "Importar", diff --git a/locales/pt-BR/models.json b/locales/pt-BR/models.json index 3b6abd9f01..172fffb380 100644 --- a/locales/pt-BR/models.json +++ b/locales/pt-BR/models.json @@ -77,10 +77,8 @@ "MiniMax-M1.description": "Um novo modelo de raciocínio interno com 80 mil cadeias de pensamento e 1 milhão de tokens de entrada, oferecendo desempenho comparável aos principais modelos globais.", "MiniMax-M2-Stable.description": "Projetado para fluxos de trabalho de codificação e agentes eficientes, com maior concorrência para uso comercial.", "MiniMax-M2.1-Lightning.description": "Poderosas capacidades de programação multilíngue, experiência de codificação totalmente aprimorada. Mais rápido e eficiente.", - "MiniMax-M2.1-highspeed.description": "Poderosas capacidades de programação multilíngue com inferência mais rápida e eficiente.", "MiniMax-M2.1.description": "MiniMax-M2.1 é o principal modelo open-source da MiniMax, focado em resolver tarefas complexas do mundo real. Seus principais pontos fortes são as capacidades de programação multilíngue e a habilidade de atuar como um Agente para resolver tarefas complexas.", "MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Mesma performance, mais rápido e ágil (aprox. 100 tps).", - "MiniMax-M2.5-highspeed.description": "Mesma performance do M2.5 com inferência significativamente mais rápida.", "MiniMax-M2.5.description": "MiniMax-M2.5 é um modelo de grande porte de código aberto da MiniMax, focado em resolver tarefas complexas do mundo real. Seus principais pontos fortes são as capacidades de programação multilíngue e a habilidade de resolver tarefas complexas como um Agente.", "MiniMax-M2.description": "Desenvolvido especificamente para codificação eficiente e fluxos de trabalho com agentes", "MiniMax-Text-01.description": "O MiniMax-01 introduz atenção linear em larga escala além dos Transformers clássicos, com 456 bilhões de parâmetros e 45,9 bilhões ativados por passagem. Alcança desempenho de ponta e suporta até 4 milhões de tokens de contexto (32× GPT-4o, 20× Claude-3.5-Sonnet).", @@ -283,9 +281,9 @@ "chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real. Combina forte compreensão e geração de linguagem para casos de uso em larga escala, como suporte ao cliente, educação e assistência técnica.", "claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.", "claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.", - "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de nova geração mais rápido da Anthropic, com melhorias em diversas habilidades e superando o antigo modelo principal Claude 3 Opus em muitos benchmarks.", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic. Comparado ao Claude 3 Haiku, ele apresenta melhorias em diversas habilidades e supera o maior modelo anterior, Claude 3 Opus, em muitos benchmarks de inteligência.", "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku oferece respostas rápidas para tarefas leves.", - "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado, oferecendo respostas quase instantâneas ou pensamento prolongado com controle refinado.", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic e o primeiro modelo de raciocínio híbrido do mercado. Ele pode produzir respostas quase instantâneas ou raciocínios detalhados passo a passo que os usuários podem acompanhar. Sonnet é especialmente forte em programação, ciência de dados, visão e tarefas de agentes.", "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.", "claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.", "claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.", @@ -293,16 +291,16 @@ "claude-3.5-sonnet.description": "Claude 3.5 Sonnet se destaca em programação, redação e raciocínio complexo.", "claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet com raciocínio estendido para tarefas complexas.", "claude-3.7-sonnet.description": "Claude 3.7 Sonnet é uma versão aprimorada com contexto e capacidades expandidas.", - "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e capacidade de raciocínio estendido.", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade impressionante e raciocínio avançado.", "claude-haiku-4.5.description": "Claude Haiku 4.5 é um modelo rápido e eficiente para diversas tarefas.", "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.", - "claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, destacando-se em desempenho, inteligência, fluência e compreensão.", - "claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.", + "claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e mais capaz da Anthropic para tarefas altamente complexas, destacando-se em desempenho, inteligência, fluência e compreensão.", + "claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, destacando-se em desempenho, inteligência, fluência e compreensão.", "claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.", - "claude-opus-4-6.description": "Claude Opus 4.6 é o modelo mais inteligente da Anthropic para criação de agentes e programação.", + "claude-opus-4-6.description": "Claude Opus 4.6 é o modelo mais inteligente da Anthropic para construção de agentes e programação.", "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.", - "claude-sonnet-4-20250514.description": "Claude Sonnet 4 é o modelo mais inteligente da Anthropic até o momento, oferecendo respostas quase instantâneas ou raciocínio passo a passo com controle refinado para usuários da API.", - "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até hoje.", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode produzir respostas quase instantâneas ou raciocínios detalhados passo a passo com processo visível.", + "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.", "claude-sonnet-4-6.description": "Claude Sonnet 4.6 é a melhor combinação de velocidade e inteligência da Anthropic.", "claude-sonnet-4.description": "Claude Sonnet 4 é a geração mais recente com desempenho aprimorado em todas as tarefas.", "codegeex-4.description": "CodeGeeX-4 é um assistente de codificação com IA poderoso que oferece suporte a perguntas e respostas multilíngues e autocompletar código para aumentar a produtividade dos desenvolvedores.", @@ -373,7 +371,7 @@ "deepseek-ai/deepseek-v3.1.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.", "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 é um modelo de raciocínio de próxima geração com capacidades mais fortes de raciocínio complexo e cadeia de pensamento.", "deepseek-ai/deepseek-vl2.description": "O DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.", - "deepseek-chat.description": "DeepSeek V3.2 equilibra raciocínio e comprimento de saída para tarefas diárias de perguntas e respostas e agentes. Os benchmarks públicos atingem níveis comparáveis ao GPT-5, sendo o primeiro a integrar raciocínio ao uso de ferramentas, liderando avaliações de agentes de código aberto.", + "deepseek-chat.description": "Um novo modelo de código aberto que combina habilidades gerais e de programação. Ele preserva o diálogo geral do modelo de chat e a forte capacidade de programação do modelo de codificação, com melhor alinhamento de preferências. O DeepSeek-V2.5 também melhora a escrita e o seguimento de instruções.", "deepseek-coder-33B-instruct.description": "O DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento intermediário, oferecendo preenchimento de código em nível de projeto e inserção de trechos.", "deepseek-coder-v2.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.", "deepseek-coder-v2:236b.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.", @@ -396,7 +394,7 @@ "deepseek-r1-fast-online.description": "Versão completa e rápida do DeepSeek R1 com busca em tempo real na web, combinando capacidade de 671B com respostas mais ágeis.", "deepseek-r1-online.description": "Versão completa do DeepSeek R1 com 671B de parâmetros e busca em tempo real na web, oferecendo compreensão e geração mais robustas.", "deepseek-r1.description": "O DeepSeek-R1 usa dados de inicialização a frio antes do RL e apresenta desempenho comparável ao OpenAI-o1 em matemática, programação e raciocínio.", - "deepseek-reasoner.description": "DeepSeek V3.2 Thinking é um modelo de raciocínio profundo que gera cadeias de pensamento antes das respostas para maior precisão, com resultados de ponta em competições e raciocínio comparável ao Gemini-3.0-Pro.", + "deepseek-reasoner.description": "O modo de raciocínio DeepSeek V3.2 gera uma cadeia de pensamento antes da resposta final para melhorar a precisão.", "deepseek-v2.description": "O DeepSeek V2 é um modelo MoE eficiente para processamento econômico.", "deepseek-v2:236b.description": "O DeepSeek V2 236B é o modelo da DeepSeek focado em código com forte geração de código.", "deepseek-v3-0324.description": "O DeepSeek-V3-0324 é um modelo MoE com 671B de parâmetros, com destaque em programação, capacidade técnica, compreensão de contexto e manipulação de textos longos.", @@ -491,8 +489,7 @@ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K é um modelo de raciocínio rápido com contexto de 32K para raciocínio complexo e bate-papo de múltiplas interações.", "ernie-x1.1-preview.description": "Pré-visualização do modelo de raciocínio ERNIE X1.1 para avaliação e testes.", "ernie-x1.1.description": "ERNIE X1.1 é um modelo de pensamento em pré-visualização para avaliação e testes.", - "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, desenvolvido pela equipe Seed da ByteDance, oferece edição e composição com múltiplas imagens. Apresenta consistência aprimorada de elementos, seguimento preciso de instruções, compreensão de lógica espacial, expressão estética, layout de pôsteres e design de logotipos com renderização texto-imagem de alta precisão.", - "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desenvolvido pela ByteDance Seed, aceita entradas de texto e imagem para geração de imagens altamente controlável e de alta qualidade a partir de prompts.", + "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 é um modelo de geração de imagens da ByteDance Seed, que suporta entradas de texto e imagem com geração de imagens altamente controlável e de alta qualidade. Ele gera imagens a partir de prompts de texto.", "fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 focado em edição de imagens, com suporte a entradas de texto e imagem.", "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] aceita texto e imagens de referência como entrada, permitindo edições locais direcionadas e transformações complexas de cena.", "fal-ai/flux/krea.description": "Flux Krea [dev] é um modelo de geração de imagens com viés estético para imagens mais realistas e naturais.", @@ -500,8 +497,8 @@ "fal-ai/hunyuan-image/v3.description": "Um poderoso modelo multimodal nativo de geração de imagens.", "fal-ai/imagen4/preview.description": "Modelo de geração de imagens de alta qualidade do Google.", "fal-ai/nano-banana.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.", - "fal-ai/qwen-image-edit.description": "Um modelo profissional de edição de imagens da equipe Qwen, com suporte a edições semânticas e visuais, edição precisa de texto em chinês/inglês, transferência de estilo, rotação e muito mais.", - "fal-ai/qwen-image.description": "Um poderoso modelo de geração de imagens da equipe Qwen, com excelente renderização de texto em chinês e estilos visuais diversos.", + "fal-ai/qwen-image-edit.description": "Um modelo profissional de edição de imagens da equipe Qwen que suporta edições semânticas e de aparência, edita texto em chinês e inglês com precisão e permite edições de alta qualidade, como transferência de estilo e rotação de objetos.", + "fal-ai/qwen-image.description": "Um poderoso modelo de geração de imagens da equipe Qwen com impressionante renderização de texto em chinês e estilos visuais diversificados.", "flux-1-schnell.description": "Modelo de texto para imagem com 12 bilhões de parâmetros da Black Forest Labs, usando difusão adversarial latente para gerar imagens de alta qualidade em 1 a 4 etapas. Rivaliza com alternativas fechadas e é lançado sob licença Apache-2.0 para uso pessoal, acadêmico e comercial.", "flux-dev.description": "FLUX.1 [dev] é um modelo destilado de código aberto para uso não comercial. Mantém qualidade de imagem próxima à profissional e seguimento de instruções, com execução mais eficiente e melhor uso de recursos do que modelos padrão do mesmo tamanho.", "flux-kontext-max.description": "Geração e edição de imagens contextuais de última geração, combinando texto e imagens para resultados precisos e coerentes.", @@ -532,8 +529,6 @@ "gemini-2.0-flash-lite-001.description": "Uma variante do Gemini 2.0 Flash otimizada para eficiência de custo e baixa latência.", "gemini-2.0-flash-lite.description": "Uma variante do Gemini 2.0 Flash otimizada para eficiência de custo e baixa latência.", "gemini-2.0-flash.description": "Gemini 2.0 Flash oferece recursos de próxima geração, incluindo velocidade excepcional, uso nativo de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens.", - "gemini-2.5-flash-image-preview.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.", - "gemini-2.5-flash-image-preview:image.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.", "gemini-2.5-flash-image.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.", "gemini-2.5-flash-image:image.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.", "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview é o menor e mais econômico modelo do Google, projetado para uso em larga escala.", @@ -547,10 +542,10 @@ "gemini-2.5-pro.description": "Gemini 2.5 Pro é o modelo de raciocínio mais avançado do Google, capaz de raciocinar sobre código, matemática e problemas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos com contexto longo.", "gemini-3-flash-preview.description": "Gemini 3 Flash é o modelo mais inteligente desenvolvido para velocidade, combinando inteligência de ponta com excelente fundamentação em buscas.", "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google que também suporta diálogo multimodal.", - "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google e também oferece suporte a chat multimodal.", + "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google e também suporta chat multimodal.", "gemini-3-pro-preview.description": "Gemini 3 Pro é o agente mais poderoso do Google, com capacidades de codificação emocional e visuais aprimoradas, além de raciocínio de última geração.", "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) é o modelo de geração de imagens nativo mais rápido do Google, com suporte a raciocínio, geração e edição de imagens conversacionais.", - "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) oferece qualidade de imagem em nível profissional com velocidade Flash e suporte a chat multimodal.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) é o modelo nativo de geração de imagens mais rápido do Google, com suporte a raciocínio, geração e edição de imagens conversacionais.", "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview melhora o Gemini 3 Pro com capacidades de raciocínio aprimoradas e adiciona suporte a nível médio de pensamento.", "gemini-flash-latest.description": "Última versão do Gemini Flash", "gemini-flash-lite-latest.description": "Última versão do Gemini Flash-Lite", @@ -692,7 +687,6 @@ "gpt-oss:120b.description": "GPT-OSS 120B é o LLM de código aberto de grande porte da OpenAI, utilizando quantização MXFP4 e posicionado como modelo principal. Requer ambientes com múltiplas GPUs ou estações de trabalho de alto desempenho, oferecendo excelente desempenho em raciocínio complexo, geração de código e processamento multilíngue, com chamadas de função avançadas e integração de ferramentas.", "gpt-oss:20b.description": "GPT-OSS 20B é um LLM de código aberto da OpenAI com quantização MXFP4, adequado para GPUs de alto desempenho para consumidores ou Macs com Apple Silicon. Apresenta bom desempenho em geração de diálogos, codificação e tarefas de raciocínio, com suporte a chamadas de função e uso de ferramentas.", "gpt-realtime.description": "Um modelo geral em tempo real com suporte a entrada/saída de texto e áudio em tempo real, além de entrada de imagem.", - "grok-2-image-1212.description": "Nosso mais recente modelo de geração de imagens cria imagens vívidas e realistas a partir de prompts, sendo excelente para marketing, redes sociais e entretenimento.", "grok-2-vision-1212.description": "Melhoria na precisão, no seguimento de instruções e na capacidade multilíngue.", "grok-3-mini.description": "Um modelo leve que pensa antes de responder. É rápido e inteligente para tarefas lógicas que não exigem conhecimento profundo de domínio, com acesso a rastros brutos de raciocínio.", "grok-3.description": "Modelo principal que se destaca em casos de uso corporativos como extração de dados, codificação e sumarização, com conhecimento profundo em finanças, saúde, direito e ciência.", @@ -1141,7 +1135,11 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking é um modelo multimodal com raciocínio em cadeia para raciocínio visual detalhado.", "qwen3-vl-flash.description": "Qwen3 VL Flash: versão leve e de raciocínio rápido para solicitações com baixa latência ou alto volume.", "qwen3-vl-plus.description": "Qwen VL é um modelo de geração de texto com compreensão visual. Pode realizar OCR, além de resumir e raciocinar, como extrair atributos de fotos de produtos ou resolver problemas a partir de imagens.", + "qwen3.5-122b-a10b.description": "Suporta entradas de texto, imagem e vídeo. Para tarefas exclusivamente de texto, seu desempenho é comparável ao Qwen3 Max, oferecendo maior eficiência e menor custo. Em capacidades multimodais, apresenta melhorias significativas em relação à série Qwen3 VL.", + "qwen3.5-27b.description": "Suporta entradas de texto, imagem e vídeo. Para tarefas exclusivamente de texto, seu desempenho é comparável ao Qwen3 Max, oferecendo maior eficiência e menor custo. Em capacidades multimodais, apresenta melhorias significativas em relação à série Qwen3 VL.", + "qwen3.5-35b-a3b.description": "Suporta entradas de texto, imagem e vídeo. Para tarefas exclusivamente de texto, seu desempenho é comparável ao Qwen3 Max, oferecendo maior eficiência e menor custo. Em capacidades multimodais, apresenta melhorias significativas em relação à série Qwen3 VL.", "qwen3.5-397b-a17b.description": "Suporta entradas de texto, imagem e vídeo. Para tarefas apenas de texto, seu desempenho é comparável ao Qwen3 Max, oferecendo maior eficiência e menor custo. Em capacidades multimodais, oferece melhorias significativas em relação à série Qwen3 VL.", + "qwen3.5-flash.description": "Modelo Qwen mais rápido e de menor custo, ideal para tarefas simples.", "qwen3.5-plus.description": "Qwen3.5 Plus suporta entrada de texto, imagem e vídeo. Seu desempenho em tarefas puramente textuais é comparável ao Qwen3 Max, com melhor desempenho e menor custo. Suas capacidades multimodais são significativamente aprimoradas em comparação com a série Qwen3 VL.", "qwen3.5:397b.description": "Qwen3.5 é um modelo de base unificada visão-linguagem com uma arquitetura híbrida (Mixture-of-Experts + atenção linear), oferecendo forte raciocínio multimodal, codificação e capacidades de longo contexto com uma janela de contexto de 256K.", "qwen3.description": "Qwen3 é o modelo de linguagem de próxima geração da Alibaba com desempenho robusto em diversos casos de uso.", @@ -1151,8 +1149,6 @@ "qwq.description": "QwQ é um modelo de raciocínio da família Qwen. Em comparação com modelos ajustados por instruções padrão, oferece habilidades de pensamento e raciocínio que melhoram significativamente o desempenho em tarefas difíceis. O QwQ-32B é um modelo de porte médio que compete com os principais modelos como DeepSeek-R1 e o1-mini.", "qwq_32b.description": "Modelo de raciocínio de porte médio da família Qwen. Em comparação com modelos ajustados por instruções padrão, as habilidades de pensamento e raciocínio do QwQ aumentam significativamente o desempenho em tarefas difíceis.", "r1-1776.description": "R1-1776 é uma variante pós-treinada do DeepSeek R1 projetada para fornecer informações factuais sem censura e imparciais.", - "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro da ByteDance oferece suporte à geração de vídeo a partir de texto, imagem para vídeo (primeiro quadro, primeiro+último quadro) e geração de áudio sincronizado com os visuais.", - "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite da BytePlus apresenta geração aumentada por recuperação na web para informações em tempo real, interpretação aprimorada de prompts complexos e consistência de referência melhorada para criação visual profissional.", "solar-mini-ja.description": "Solar Mini (Ja) estende o Solar Mini com foco no japonês, mantendo desempenho eficiente e forte em inglês e coreano.", "solar-mini.description": "Solar Mini é um LLM compacto que supera o GPT-3.5, com forte capacidade multilíngue suportando inglês e coreano, oferecendo uma solução eficiente e de baixo custo.", "solar-pro.description": "Solar Pro é um LLM de alta inteligência da Upstage, focado em seguir instruções em uma única GPU, com pontuações IFEval acima de 80. Atualmente suporta inglês; o lançamento completo está previsto para novembro de 2024 com suporte expandido a idiomas e contexto mais longo.", diff --git a/locales/pt-BR/providers.json b/locales/pt-BR/providers.json index 2bbd16ded9..1a4bdad625 100644 --- a/locales/pt-BR/providers.json +++ b/locales/pt-BR/providers.json @@ -30,7 +30,6 @@ "internlm.description": "Uma organização open-source focada em pesquisa e ferramentas para grandes modelos, oferecendo uma plataforma eficiente e fácil de usar que torna modelos e algoritmos de ponta acessíveis.", "jina.description": "Fundada em 2020, a Jina AI é uma empresa líder em busca com IA. Sua pilha de busca inclui modelos vetoriais, reranqueadores e pequenos modelos de linguagem para construir aplicativos generativos e multimodais confiáveis e de alta qualidade.", "lmstudio.description": "O LM Studio é um aplicativo de desktop para desenvolver e experimentar com LLMs no seu computador.", - "lobehub.description": "O LobeHub Cloud utiliza APIs oficiais para acessar modelos de IA e mede o uso com Créditos vinculados aos tokens dos modelos.", "minimax.description": "Fundada em 2021, a MiniMax desenvolve IA de uso geral com modelos fundamentais multimodais, incluindo modelos de texto com trilhões de parâmetros, modelos de fala e visão, além de aplicativos como o Hailuo AI.", "mistral.description": "A Mistral oferece modelos avançados gerais, especializados e de pesquisa para raciocínio complexo, tarefas multilíngues e geração de código, com suporte a chamadas de função para integrações personalizadas.", "modelscope.description": "O ModelScope é a plataforma de modelo como serviço da Alibaba Cloud, oferecendo uma ampla gama de modelos de IA e serviços de inferência.", diff --git a/locales/ru-RU/agent.json b/locales/ru-RU/agent.json new file mode 100644 index 0000000000..f5764ed241 --- /dev/null +++ b/locales/ru-RU/agent.json @@ -0,0 +1,34 @@ +{ + "integration.applicationId": "ID приложения / Имя пользователя бота", + "integration.applicationIdPlaceholder": "например, 1234567890", + "integration.botToken": "Токен бота / API ключ", + "integration.botTokenEncryptedHint": "Токен будет зашифрован и сохранен безопасно.", + "integration.botTokenHowToGet": "Как получить?", + "integration.botTokenPlaceholderExisting": "Токен скрыт для безопасности", + "integration.botTokenPlaceholderNew": "Вставьте токен вашего бота здесь", + "integration.connectionConfig": "Конфигурация подключения", + "integration.copied": "Скопировано в буфер обмена", + "integration.copy": "Копировать", + "integration.deleteConfirm": "Вы уверены, что хотите удалить эту интеграцию?", + "integration.disabled": "Отключено", + "integration.discord.description": "Подключите этого помощника к серверу Discord для общения в каналах и личных сообщениях.", + "integration.documentation": "Документация", + "integration.enabled": "Включено", + "integration.endpointUrl": "URL конечной точки взаимодействия", + "integration.endpointUrlHint": "Пожалуйста, скопируйте этот URL и вставьте его в поле \"URL конечной точки взаимодействия\" на портале разработчиков {{name}}.", + "integration.platforms": "Платформы", + "integration.publicKey": "Публичный ключ", + "integration.publicKeyPlaceholder": "Требуется для проверки взаимодействия", + "integration.removeFailed": "Не удалось удалить интеграцию", + "integration.removeIntegration": "Удалить интеграцию", + "integration.removed": "Интеграция удалена", + "integration.save": "Сохранить конфигурацию", + "integration.saveFailed": "Не удалось сохранить конфигурацию", + "integration.saveFirstWarning": "Пожалуйста, сначала сохраните конфигурацию", + "integration.saved": "Конфигурация успешно сохранена", + "integration.testConnection": "Проверить подключение", + "integration.testFailed": "Тест подключения не удался", + "integration.testSuccess": "Тест подключения успешно пройден", + "integration.updateFailed": "Не удалось обновить статус", + "integration.validationError": "Пожалуйста, заполните ID приложения и токен" +} diff --git a/locales/ru-RU/chat.json b/locales/ru-RU/chat.json index f10a63e269..cae36ec69a 100644 --- a/locales/ru-RU/chat.json +++ b/locales/ru-RU/chat.json @@ -336,6 +336,7 @@ "supervisor.todoList.allComplete": "Все задачи выполнены", "supervisor.todoList.title": "Задачи выполнены", "tab.groupProfile": "Профиль группы", + "tab.integration": "Интеграция", "tab.profile": "Профиль агента", "tab.search": "Поиск", "task.activity.calling": "Вызов навыка...", diff --git a/locales/ru-RU/common.json b/locales/ru-RU/common.json index 6da9da4ae7..2470dd6a35 100644 --- a/locales/ru-RU/common.json +++ b/locales/ru-RU/common.json @@ -209,7 +209,6 @@ "delete": "Удалить", "document": "Руководство пользователя", "download": "Скачать", - "downloadClient": "Скачать клиент", "duplicate": "Дублировать", "edit": "Редактировать", "errors.invalidFileFormat": "Недопустимый формат файла", @@ -256,6 +255,7 @@ "footer.star.title": "Поставьте нам звезду на GitHub", "footer.title": "Нравится наш продукт?", "fullscreen": "Полноэкранный режим", + "getDesktopApp": "Скачать приложение для компьютера", "historyRange": "Диапазон истории", "home.suggestQuestions": "Попробуйте эти примеры", "import": "Импорт", diff --git a/locales/ru-RU/models.json b/locales/ru-RU/models.json index 21f2f555f2..9ed639ab4f 100644 --- a/locales/ru-RU/models.json +++ b/locales/ru-RU/models.json @@ -77,10 +77,8 @@ "MiniMax-M1.description": "Новая внутренняя модель рассуждений с поддержкой 80K цепочек размышлений и 1M входных токенов, обеспечивающая производительность на уровне ведущих мировых моделей.", "MiniMax-M2-Stable.description": "Создана для эффективного программирования и работы агентов, с повышенной параллельностью для коммерческого использования.", "MiniMax-M2.1-Lightning.description": "Мощные многоязычные возможности программирования и всесторонне улучшенный опыт разработки. Быстрее и эффективнее.", - "MiniMax-M2.1-highspeed.description": "Мощные многоязычные возможности программирования с более быстрым и эффективным выводом.", "MiniMax-M2.1.description": "MiniMax-M2.1 — это флагманская модель с открытым исходным кодом от MiniMax, ориентированная на решение сложных задач из реального мира. Её ключевые преимущества — поддержка многозадачного программирования и способность выступать в роли интеллектуального агента.", "MiniMax-M2.5-Lightning.description": "M2.5 Lightning: та же производительность, быстрее и более гибкий (примерно 100 tps).", - "MiniMax-M2.5-highspeed.description": "Та же производительность, что и у M2.5, с значительно более быстрым выводом.", "MiniMax-M2.5.description": "MiniMax-M2.5 — это флагманская открытая крупная модель от MiniMax, ориентированная на решение сложных реальных задач. Её основные преимущества — многоязычные программные возможности и способность решать сложные задачи в качестве агента.", "MiniMax-M2.description": "Создан специально для эффективного программирования и рабочих процессов с агентами", "MiniMax-Text-01.description": "MiniMax-01 представляет масштабное линейное внимание, выходящее за рамки классических трансформеров, с 456B параметрами и 45.9B активируемыми за проход. Обеспечивает производительность высшего уровня и поддерживает до 4M токенов контекста (в 32 раза больше GPT-4o, в 20 раз больше Claude-3.5-Sonnet).", @@ -283,9 +281,9 @@ "chatgpt-4o-latest.description": "ChatGPT-4o — это динамическая модель, обновляемая в реальном времени. Она сочетает в себе мощное понимание языка и генерацию для масштабных сценариев использования, таких как поддержка клиентов, образование и техническая помощь.", "claude-2.0.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.", "claude-2.1.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.", - "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic, улучшенная по множеству навыков и превосходящая предыдущий флагман Claude 3 Opus по многим показателям.", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic. По сравнению с Claude 3 Haiku, она улучшена во многих аспектах и превосходит предыдущую крупнейшую модель Claude 3 Opus по многим интеллектуальным показателям.", "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku обеспечивает быстрые ответы для легких задач.", - "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 — самая интеллектуальная модель от Anthropic и первая гибридная модель рассуждения на рынке, обеспечивающая как мгновенные ответы, так и углублённое пошаговое мышление с тонкой настройкой.", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet — самая интеллектуальная модель Anthropic и первая гибридная модель рассуждений на рынке. Она может выдавать мгновенные ответы или пошаговые рассуждения, которые пользователи могут наблюдать. Sonnet особенно силен в программировании, анализе данных, компьютерном зрении и задачах для агентов.", "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.", "claude-3-haiku-20240307.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, предназначенная для мгновенных ответов с высокой точностью и скоростью.", "claude-3-opus-20240229.description": "Claude 3 Opus — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.", @@ -293,17 +291,17 @@ "claude-3.5-sonnet.description": "Claude 3.5 Sonnet превосходно справляется с программированием, написанием текстов и сложными логическими задачами.", "claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet с расширенным мышлением для выполнения сложных логических задач.", "claude-3.7-sonnet.description": "Claude 3.7 Sonnet — обновлённая версия с расширенным контекстом и улучшенными возможностями.", - "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и интеллектуальная модель Haiku от Anthropic, сочетающая молниеносную скорость и углублённое мышление.", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и умная модель Haiku от Anthropic, обеспечивающая молниеносную скорость и расширенные возможности рассуждений.", "claude-haiku-4.5.description": "Claude Haiku 4.5 — быстрый и эффективный модель для выполнения различных задач.", "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking — продвинутая версия, способная демонстрировать процесс рассуждения.", - "claude-opus-4-1-20250805.description": "Claude Opus 4.1 — новейшая и самая мощная модель от Anthropic для решения высоко сложных задач, превосходящая в производительности, интеллекте, беглости и понимании.", - "claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для решения высоко сложных задач, превосходящая в производительности, интеллекте, беглости и понимании.", + "claude-opus-4-1-20250805.description": "Claude Opus 4.1 — последняя и самая мощная модель Anthropic для выполнения сложных задач, превосходящая в производительности, интеллекте, беглости и понимании.", + "claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель Anthropic для выполнения сложных задач, превосходящая в производительности, интеллекте, беглости и понимании.", "claude-opus-4-5-20251101.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая выдающийся интеллект с масштабируемой производительностью, идеально подходящая для сложных задач, требующих высококачественных ответов и рассуждений.", - "claude-opus-4-6.description": "Claude Opus 4.6 — самая интеллектуальная модель от Anthropic для создания агентов и программирования.", + "claude-opus-4-6.description": "Claude Opus 4.6 — самая интеллектуальная модель Anthropic для создания агентов и программирования.", "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking может выдавать как мгновенные ответы, так и пошаговое рассуждение с видимым процессом.", - "claude-sonnet-4-20250514.description": "Claude Sonnet 4 — самая интеллектуальная модель от Anthropic на сегодняшний день, обеспечивающая мгновенные ответы или пошаговое мышление с тонкой настройкой для пользователей API.", - "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 — самая интеллектуальная модель от Anthropic на сегодняшний день.", - "claude-sonnet-4-6.description": "Claude Sonnet 4.6 — это лучшее сочетание скорости и интеллекта от Anthropic.", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4 может выдавать мгновенные ответы или пошаговые рассуждения с видимым процессом.", + "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 — самая интеллектуальная модель Anthropic на сегодняшний день.", + "claude-sonnet-4-6.description": "Claude Sonnet 4.6 — лучшее сочетание скорости и интеллекта от Anthropic.", "claude-sonnet-4.description": "Claude Sonnet 4 — модель нового поколения с улучшенной производительностью во всех задачах.", "codegeex-4.description": "CodeGeeX-4 — мощный AI-помощник для программирования, поддерживающий многоязычные вопросы и автодополнение кода для повышения продуктивности разработчиков.", "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B — многоязычная модель генерации кода, поддерживающая автодополнение, генерацию кода, интерпретацию, веб-поиск, вызов функций и вопросы по репозиториям. Охватывает широкий спектр сценариев разработки ПО и является одной из лучших моделей кода с параметрами до 10B.", @@ -373,7 +371,7 @@ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.", "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 — это модель рассуждений следующего поколения с улучшенными возможностями сложных рассуждений и цепочки размышлений.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 — модель визуально-языкового типа MoE на базе DeepSeekMoE-27B с разреженной активацией, достигающая высокой производительности при использовании всего 4.5B активных параметров. Отличается в задачах визуального QA, OCR, понимания документов/таблиц/диаграмм и визуального связывания.", - "deepseek-chat.description": "DeepSeek V3.2 сочетает логическое мышление и длину вывода для повседневных задач вопросов-ответов и работы агентов. На публичных бенчмарках достигает уровня GPT-5 и первым интегрирует мышление в использование инструментов, лидируя в оценках среди open-source агентов.", + "deepseek-chat.description": "Новая модель с открытым исходным кодом, объединяющая общие и кодовые способности. Она сохраняет общий диалог чат-модели и сильное программирование кодовой модели, с улучшенной согласованностью предпочтений. DeepSeek-V2.5 также улучшает написание текстов и выполнение инструкций.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B — языковая модель для программирования, обученная на 2 триллионах токенов (87% кода, 13% китайского/английского текста). Поддерживает контекстное окно 16K и задачи заполнения в середине, обеспечивая автодополнение на уровне проекта и вставку фрагментов кода.", "deepseek-coder-v2.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.", "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.", @@ -396,7 +394,7 @@ "deepseek-r1-fast-online.description": "Быстрая полная версия DeepSeek R1 с поиском в интернете в реальном времени, объединяющая возможности масштаба 671B и ускоренный отклик.", "deepseek-r1-online.description": "Полная версия DeepSeek R1 с 671B параметрами и поиском в интернете в реальном времени, обеспечивающая улучшенное понимание и генерацию.", "deepseek-r1.description": "DeepSeek-R1 использует данные холодного старта до этапа RL и демонстрирует сопоставимую с OpenAI-o1 производительность в математике, программировании и логическом мышлении.", - "deepseek-reasoner.description": "DeepSeek V3.2 Thinking — модель глубокого рассуждения, генерирующая цепочку мыслей перед выводом для повышения точности, с выдающимися результатами в соревнованиях и уровнем рассуждения, сопоставимым с Gemini-3.0-Pro.", + "deepseek-reasoner.description": "Режим мышления DeepSeek V3.2 выводит цепочку рассуждений перед финальным ответом для повышения точности.", "deepseek-v2.description": "DeepSeek V2 — эффективная модель MoE для экономичной обработки.", "deepseek-v2:236b.description": "DeepSeek V2 236B — модель DeepSeek, ориентированная на программирование, с высокой способностью к генерации кода.", "deepseek-v3-0324.description": "DeepSeek-V3-0324 — модель MoE с 671B параметрами, выделяющаяся в программировании, технических задачах, понимании контекста и работе с длинными текстами.", @@ -491,8 +489,7 @@ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K — быстрая модель мышления с контекстом 32K для сложного рассуждения и многотурового общения.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview — предварительная версия модели мышления для оценки и тестирования.", "ernie-x1.1.description": "ERNIE X1.1 — это предварительная версия модели мышления для оценки и тестирования.", - "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, разработанная командой ByteDance Seed, поддерживает редактирование и компоновку нескольких изображений. Обеспечивает улучшенную согласованность объектов, точное следование инструкциям, понимание пространственной логики, эстетическое выражение, макет постеров и дизайн логотипов с высокоточной визуализацией текста и изображений.", - "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, разработанная ByteDance Seed, поддерживает ввод текста и изображений для высококачественной генерации изображений с высокой степенью управляемости.", + "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 — модель генерации изображений от ByteDance Seed, поддерживающая ввод текста и изображений с высококонтролируемой и качественной генерацией изображений. Она создает изображения на основе текстовых запросов.", "fal-ai/flux-kontext/dev.description": "Модель FLUX.1, ориентированная на редактирование изображений, поддерживает ввод текста и изображений.", "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] принимает текст и эталонные изображения, позволяя выполнять локальные правки и сложные глобальные трансформации сцены.", "fal-ai/flux/krea.description": "Flux Krea [dev] — модель генерации изображений с эстетическим уклоном в сторону более реалистичных и естественных изображений.", @@ -500,8 +497,8 @@ "fal-ai/hunyuan-image/v3.description": "Мощная нативная мультимодальная модель генерации изображений.", "fal-ai/imagen4/preview.description": "Модель генерации изображений высокого качества от Google.", "fal-ai/nano-banana.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.", - "fal-ai/qwen-image-edit.description": "Профессиональная модель редактирования изображений от команды Qwen, поддерживающая семантическое и визуальное редактирование, точное редактирование текста на китайском и английском языках, перенос стиля, поворот и многое другое.", - "fal-ai/qwen-image.description": "Мощная модель генерации изображений от команды Qwen с отличной визуализацией китайского текста и разнообразными визуальными стилями.", + "fal-ai/qwen-image-edit.description": "Профессиональная модель редактирования изображений от команды Qwen, поддерживающая семантические и визуальные изменения, точное редактирование китайского и английского текста, а также высококачественные изменения, такие как перенос стиля и вращение объектов.", + "fal-ai/qwen-image.description": "Мощная модель генерации изображений от команды Qwen с впечатляющим рендерингом китайского текста и разнообразными визуальными стилями.", "flux-1-schnell.description": "Модель преобразования текста в изображение с 12 миллиардами параметров от Black Forest Labs, использующая латентную диффузию с дистилляцией для генерации качественных изображений за 1–4 шага. Конкурирует с закрытыми аналогами и распространяется по лицензии Apache-2.0 для личного, исследовательского и коммерческого использования.", "flux-dev.description": "FLUX.1 [dev] — модель с открытыми весами для некоммерческого использования. Сохраняет почти профессиональное качество изображений и следование инструкциям при более эффективной работе и лучшем использовании ресурсов по сравнению со стандартными моделями аналогичного размера.", "flux-kontext-max.description": "Передовая генерация и редактирование изображений с учётом контекста, объединяющая текст и изображения для точных и согласованных результатов.", @@ -532,8 +529,6 @@ "gemini-2.0-flash-lite-001.description": "Вариант Gemini 2.0 Flash, оптимизированный по стоимости и задержке.", "gemini-2.0-flash-lite.description": "Вариант Gemini 2.0 Flash, оптимизированный по стоимости и задержке.", "gemini-2.0-flash.description": "Gemini 2.0 Flash предлагает функции следующего поколения, включая исключительную скорость, нативное использование инструментов, мультимодальную генерацию и контекст до 1 миллиона токенов.", - "gemini-2.5-flash-image-preview.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, обеспечивающая генерацию и редактирование изображений в диалоговом формате.", - "gemini-2.5-flash-image-preview:image.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, обеспечивающая генерацию и редактирование изображений в диалоговом формате.", "gemini-2.5-flash-image.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.", "gemini-2.5-flash-image:image.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.", "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview — самая компактная и экономичная модель от Google, предназначенная для масштабного использования.", @@ -550,7 +545,7 @@ "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) — модель генерации изображений от Google, также поддерживающая мультимодальный чат.", "gemini-3-pro-preview.description": "Gemini 3 Pro — самая мощная агентная модель от Google с поддержкой визуализации и глубокой интерактивности, основанная на передовых возможностях рассуждения.", "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) — это самая быстрая нативная модель генерации изображений от Google с поддержкой мышления, генерации и редактирования изображений в диалоговом режиме.", - "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) обеспечивает профессиональное качество изображений на высокой скорости с поддержкой мультимодального чата.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) — самая быстрая модель генерации изображений от Google с поддержкой мышления, генерации и редактирования изображений в формате диалога.", "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview улучшает Gemini 3 Pro с расширенными возможностями рассуждений и добавляет поддержку среднего уровня мышления.", "gemini-flash-latest.description": "Последний выпуск Gemini Flash", "gemini-flash-lite-latest.description": "Последний выпуск Gemini Flash-Lite", @@ -692,7 +687,6 @@ "gpt-oss:120b.description": "GPT-OSS 120B — крупная open-source LLM от OpenAI с квантованием MXFP4, позиционируемая как флагманская модель. Требует многопроцессорной или высокопроизводительной рабочей станции. Обеспечивает отличные результаты в сложных рассуждениях, генерации кода и многоязычной обработке, с поддержкой вызова функций и интеграции инструментов.", "gpt-oss:20b.description": "GPT-OSS 20B — open-source LLM от OpenAI с квантованием MXFP4, подходящая для мощных потребительских GPU или Apple Silicon. Эффективна в генерации диалогов, программировании и логических задачах, поддерживает вызов функций и использование инструментов.", "gpt-realtime.description": "Универсальная модель реального времени с поддержкой ввода/вывода текста и аудио, а также ввода изображений.", - "grok-2-image-1212.description": "Наша новейшая модель генерации изображений создает яркие, реалистичные изображения по подсказкам и отлично подходит для маркетинга, социальных сетей и развлечений.", "grok-2-vision-1212.description": "Улучшенная точность, следование инструкциям и многоязычные возможности.", "grok-3-mini.description": "Легковесная модель, которая сначала думает, а потом отвечает. Быстрая и умная для логических задач, не требующих глубоких знаний, с доступом к необработанным следам рассуждений.", "grok-3.description": "Флагманская модель, превосходно справляющаяся с корпоративными задачами, такими как извлечение данных, программирование и суммирование, с глубокими знаниями в области финансов, здравоохранения, права и науки.", @@ -1141,7 +1135,11 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking — мультимодальная модель с цепочкой рассуждений для детального визуального анализа.", "qwen3-vl-flash.description": "Qwen3 VL Flash: легковесная, высокоскоростная версия рассуждений для задач с низкой задержкой или высоким объемом запросов.", "qwen3-vl-plus.description": "Qwen VL — модель генерации текста с пониманием изображений. Поддерживает OCR, а также умеет обобщать и рассуждать, например, извлекать атрибуты с фото товаров или решать задачи по изображениям.", + "qwen3.5-122b-a10b.description": "Поддерживает ввод текста, изображений и видео. Для задач только с текстом её производительность сопоставима с Qwen3 Max, обеспечивая более высокую эффективность и меньшую стоимость. В мультимодальных возможностях она значительно превосходит серию Qwen3 VL.", + "qwen3.5-27b.description": "Поддерживает ввод текста, изображений и видео. Для задач только с текстом её производительность сопоставима с Qwen3 Max, обеспечивая более высокую эффективность и меньшую стоимость. В мультимодальных возможностях она значительно превосходит серию Qwen3 VL.", + "qwen3.5-35b-a3b.description": "Поддерживает ввод текста, изображений и видео. Для задач только с текстом её производительность сопоставима с Qwen3 Max, обеспечивая более высокую эффективность и меньшую стоимость. В мультимодальных возможностях она значительно превосходит серию Qwen3 VL.", "qwen3.5-397b-a17b.description": "Поддерживает текст, изображения и видео. Для задач только с текстом его производительность сопоставима с Qwen3 Max, обеспечивая более высокую эффективность и меньшую стоимость. В мультимодальных возможностях он демонстрирует значительные улучшения по сравнению с серией Qwen3 VL.", + "qwen3.5-flash.description": "Самая быстрая и недорогая модель Qwen, идеально подходящая для простых задач.", "qwen3.5-plus.description": "Qwen3.5 Plus поддерживает текстовый, графический и видео ввод. Её производительность в чисто текстовых задачах сопоставима с Qwen3 Max, с лучшей производительностью и меньшими затратами. Её мультимодальные возможности значительно улучшены по сравнению с серией Qwen3 VL.", "qwen3.5:397b.description": "Qwen3.5 — это унифицированная модель для работы с текстом и изображениями с гибридной архитектурой (Mixture-of-Experts + линейное внимание), предлагающая сильные мультимодальные возможности рассуждения, программирования и работы с длинным контекстом с окном 256K.", "qwen3.description": "Qwen3 — это LLM нового поколения от Alibaba с высокой производительностью в различных сценариях использования.", @@ -1151,8 +1149,6 @@ "qwq.description": "QwQ — модель логического вывода из семейства Qwen. По сравнению со стандартными моделями, обученными на инструкциях, она обладает способностями к мышлению и логике, которые значительно улучшают производительность на сложных задачах. QwQ-32B — среднеразмерная модель, успешно конкурирующая с ведущими моделями, такими как DeepSeek-R1 и o1-mini.", "qwq_32b.description": "Среднеразмерная модель логического вывода из семейства Qwen. По сравнению со стандартными моделями, обученными на инструкциях, способности QwQ к мышлению и логике значительно повышают производительность на сложных задачах.", "r1-1776.description": "R1-1776 — дообученный вариант DeepSeek R1, предназначенный для предоставления нецензурированной, объективной и достоверной информации.", - "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro от ByteDance поддерживает генерацию видео по тексту, преобразование изображений в видео (по первому кадру или первому и последнему), а также синхронизированную генерацию аудио с визуальным рядом.", - "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite от BytePlus включает генерацию с использованием веб-поиска для получения информации в реальном времени, улучшенную интерпретацию сложных подсказок и улучшенную согласованность ссылок для профессионального визуального творчества.", "solar-mini-ja.description": "Solar Mini (Ja) расширяет возможности Solar Mini с акцентом на японский язык, сохраняя при этом высокую эффективность и производительность на английском и корейском.", "solar-mini.description": "Solar Mini — компактная LLM-модель, превосходящая GPT-3.5, с мощной многоязычной поддержкой английского и корейского языков, предлагающая эффективное решение с малым объемом.", "solar-pro.description": "Solar Pro — интеллектуальная LLM-модель от Upstage, ориентированная на следование инструкциям на одном GPU, с результатами IFEval выше 80. В настоящее время поддерживает английский язык; полный релиз с расширенной языковой поддержкой и увеличенным контекстом запланирован на ноябрь 2024 года.", diff --git a/locales/ru-RU/providers.json b/locales/ru-RU/providers.json index 64f507d062..49525bdcad 100644 --- a/locales/ru-RU/providers.json +++ b/locales/ru-RU/providers.json @@ -30,7 +30,6 @@ "internlm.description": "Открытая организация, сосредоточенная на исследованиях и инструментах для больших моделей, предоставляющая эффективную и удобную платформу для доступа к передовым моделям и алгоритмам.", "jina.description": "Основанная в 2020 году, Jina AI — ведущая компания в области поискового ИИ. Её стек включает векторные модели, переоценщики и малые языковые модели для создания надежных генеративных и мультимодальных поисковых приложений.", "lmstudio.description": "LM Studio — это настольное приложение для разработки и экспериментов с LLM на вашем компьютере.", - "lobehub.description": "LobeHub Cloud использует официальные API для доступа к ИИ-моделям и измеряет использование с помощью Кредитов, привязанных к токенам модели.", "minimax.description": "Основанная в 2021 году, MiniMax разрабатывает универсальные ИИ-модели на базе мультимодальных основ, включая текстовые модели с триллионами параметров, речевые и визуальные модели, а также приложения, такие как Hailuo AI.", "mistral.description": "Mistral предлагает передовые универсальные, специализированные и исследовательские модели для сложных рассуждений, многоязычных задач и генерации кода, с поддержкой вызова функций для кастомных интеграций.", "modelscope.description": "ModelScope — это платформа моделей как сервиса от Alibaba Cloud, предлагающая широкий выбор ИИ-моделей и сервисов инференса.", diff --git a/locales/tr-TR/agent.json b/locales/tr-TR/agent.json new file mode 100644 index 0000000000..60984b7d35 --- /dev/null +++ b/locales/tr-TR/agent.json @@ -0,0 +1,34 @@ +{ + "integration.applicationId": "Uygulama Kimliği / Bot Kullanıcı Adı", + "integration.applicationIdPlaceholder": "ör. 1234567890", + "integration.botToken": "Bot Token / API Anahtarı", + "integration.botTokenEncryptedHint": "Token şifrelenerek güvenli bir şekilde saklanacaktır.", + "integration.botTokenHowToGet": "Nasıl alınır?", + "integration.botTokenPlaceholderExisting": "Güvenlik nedeniyle token gizlenmiştir", + "integration.botTokenPlaceholderNew": "Bot tokeninizi buraya yapıştırın", + "integration.connectionConfig": "Bağlantı Yapılandırması", + "integration.copied": "Panoya kopyalandı", + "integration.copy": "Kopyala", + "integration.deleteConfirm": "Bu entegrasyonu kaldırmak istediğinizden emin misiniz?", + "integration.disabled": "Devre Dışı", + "integration.discord.description": "Bu asistanı kanal sohbeti ve doğrudan mesajlar için Discord sunucusuna bağlayın.", + "integration.documentation": "Dokümantasyon", + "integration.enabled": "Etkin", + "integration.endpointUrl": "Etkileşim Uç Noktası URL'si", + "integration.endpointUrlHint": "Lütfen bu URL'yi kopyalayın ve {{name}} Geliştirici Portalındaki \"Etkileşim Uç Noktası URL'si\" alanına yapıştırın.", + "integration.platforms": "Platformlar", + "integration.publicKey": "Genel Anahtar", + "integration.publicKeyPlaceholder": "Etkileşim doğrulaması için gereklidir", + "integration.removeFailed": "Entegrasyon kaldırılamadı", + "integration.removeIntegration": "Entegrasyonu Kaldır", + "integration.removed": "Entegrasyon kaldırıldı", + "integration.save": "Yapılandırmayı Kaydet", + "integration.saveFailed": "Yapılandırma kaydedilemedi", + "integration.saveFirstWarning": "Lütfen önce yapılandırmayı kaydedin", + "integration.saved": "Yapılandırma başarıyla kaydedildi", + "integration.testConnection": "Bağlantıyı Test Et", + "integration.testFailed": "Bağlantı testi başarısız oldu", + "integration.testSuccess": "Bağlantı testi başarılı", + "integration.updateFailed": "Durum güncellenemedi", + "integration.validationError": "Lütfen Uygulama Kimliği ve Token bilgilerini doldurun" +} diff --git a/locales/tr-TR/chat.json b/locales/tr-TR/chat.json index 29d07268b1..b1e8e46b0b 100644 --- a/locales/tr-TR/chat.json +++ b/locales/tr-TR/chat.json @@ -336,6 +336,7 @@ "supervisor.todoList.allComplete": "Tüm görevler tamamlandı", "supervisor.todoList.title": "Tamamlanan Görevler", "tab.groupProfile": "Grup Profili", + "tab.integration": "Entegrasyon", "tab.profile": "Ajan Profili", "tab.search": "Arama", "task.activity.calling": "Yetenek çağrılıyor...", diff --git a/locales/tr-TR/common.json b/locales/tr-TR/common.json index 085c3ef414..9d4db6783b 100644 --- a/locales/tr-TR/common.json +++ b/locales/tr-TR/common.json @@ -209,7 +209,6 @@ "delete": "Sil", "document": "Kullanıcı Kılavuzu", "download": "İndir", - "downloadClient": "İstemciyi indir", "duplicate": "Çoğalt", "edit": "Düzenle", "errors.invalidFileFormat": "Geçersiz dosya formatı", @@ -256,6 +255,7 @@ "footer.star.title": "GitHub'da bize yıldız verin", "footer.title": "Ürünümüzü Beğendiniz mi?", "fullscreen": "Tam Ekran Modu", + "getDesktopApp": "Masaüstü Uygulamasını İndir", "historyRange": "Geçmiş Aralığı", "home.suggestQuestions": "Bu örnekleri deneyin", "import": "İçe Aktar", diff --git a/locales/tr-TR/models.json b/locales/tr-TR/models.json index 92a3d4155e..23cfdc7f92 100644 --- a/locales/tr-TR/models.json +++ b/locales/tr-TR/models.json @@ -77,10 +77,8 @@ "MiniMax-M1.description": "80K düşünce zinciri ve 1M giriş desteğiyle üst düzey modellerle karşılaştırılabilir performans sunan yeni bir yerli akıl yürütme modeli.", "MiniMax-M2-Stable.description": "Ticari kullanım için daha yüksek eşzamanlılık sunan, verimli kodlama ve ajan iş akışları için tasarlanmıştır.", "MiniMax-M2.1-Lightning.description": "Güçlü çok dilli programlama yetenekleriyle kapsamlı şekilde yenilenmiş bir programlama deneyimi. Daha hızlı ve daha verimli.", - "MiniMax-M2.1-highspeed.description": "Güçlü çok dilli programlama yetenekleri ile daha hızlı ve daha verimli çıkarım.", "MiniMax-M2.1.description": "MiniMax-M2.1, MiniMax tarafından geliştirilen amiral gemisi açık kaynak büyük modeldir ve karmaşık gerçek dünya görevlerini çözmeye odaklanır. Temel güçlü yönleri çok dilli programlama yetenekleri ve bir Ajan olarak karmaşık görevleri çözme becerisidir.", "MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Aynı performans, daha hızlı ve daha çevik (yaklaşık 100 tps).", - "MiniMax-M2.5-highspeed.description": "M2.5 ile aynı performans, ancak önemli ölçüde daha hızlı çıkarım.", "MiniMax-M2.5.description": "MiniMax-M2.5, MiniMax'in karmaşık gerçek dünya görevlerini çözmeye odaklanan amiral gemisi açık kaynaklı büyük modelidir. Temel güçlü yönleri çok dilli programlama yetenekleri ve bir Agent olarak karmaşık görevleri çözme yeteneğidir.", "MiniMax-M2.description": "Verimli kodlama ve Akıllı Ajan iş akışları için özel olarak geliştirilmiştir", "MiniMax-Text-01.description": "MiniMax-01, klasik Dönüştürücüler ötesinde büyük ölçekli doğrusal dikkat sunar. 456B parametreye ve geçiş başına 45.9B etkin parametreye sahiptir. Üst düzey performans sunar ve 4M bağlam (32× GPT-4o, 20× Claude-3.5-Sonnet) destekler.", @@ -283,9 +281,9 @@ "chatgpt-4o-latest.description": "ChatGPT-4o, gerçek zamanlı olarak güncellenen dinamik bir modeldir. Güçlü dil anlama ve üretim yeteneklerini birleştirerek müşteri desteği, eğitim ve teknik yardım gibi geniş ölçekli kullanım senaryoları için uygundur.", "claude-2.0.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.", "claude-2.1.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.", - "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic'in en hızlı yeni nesil modeli olup, yeteneklerde gelişme göstermekte ve birçok ölçüt açısından önceki amiral gemisi Claude 3 Opus'u geride bırakmaktadır.", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic'in en hızlı yeni nesil modeli. Claude 3 Haiku'ya kıyasla becerilerde gelişme sağlar ve önceki en büyük model olan Claude 3 Opus'u birçok zeka ölçütünde geride bırakır.", "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku, hafif görevler için hızlı yanıtlar sunar.", - "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7, Anthropic'in en zeki modeli olup, pazardaki ilk hibrit akıl yürütme modelidir. Anında yanıtlar veya ayrıntılı düşünme süreçleri için ince ayarlı kontrol sunar.", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet, Anthropic'in en zeki modeli ve piyasadaki ilk hibrit akıl yürütme modelidir. Anında yanıtlar veya kullanıcıların görebileceği adım adım akıl yürütme süreçleri üretebilir. Sonnet, özellikle kodlama, veri bilimi, görsel analiz ve ajan görevlerinde güçlüdür.", "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet, karmaşık görevler için Anthropic’in en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.", "claude-3-haiku-20240307.description": "Claude 3 Haiku, Anthropic’in en hızlı ve en kompakt modelidir; anında yanıtlar için hızlı ve doğru performans sunar.", "claude-3-opus-20240229.description": "Claude 3 Opus, karmaşık görevler için Anthropic’in en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.", @@ -293,17 +291,17 @@ "claude-3.5-sonnet.description": "Claude 3.5 Sonnet, kodlama, yazma ve karmaşık akıl yürütme konularında üstün performans gösterir.", "claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet, karmaşık akıl yürütme görevleri için geliştirilmiş düşünme yeteneğine sahiptir.", "claude-3.7-sonnet.description": "Claude 3.7 Sonnet, genişletilmiş bağlam ve yeteneklerle geliştirilmiş bir versiyondur.", - "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic'in en hızlı ve en zeki Haiku modelidir; yıldırım hızında yanıtlar ve derinlemesine düşünme yeteneği sunar.", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic'in en hızlı ve en akıllı Haiku modeli olup, yıldırım hızında ve genişletilmiş akıl yürütme yeteneklerine sahiptir.", "claude-haiku-4.5.description": "Claude Haiku 4.5, çeşitli görevler için hızlı ve verimli bir modeldir.", "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking, akıl yürütme sürecini görünür şekilde ortaya koyabilen gelişmiş bir varyanttır.", - "claude-opus-4-1-20250805.description": "Claude Opus 4.1, Anthropic'in en yeni ve en yetenekli modelidir; karmaşık görevlerde üstün performans, zeka, akıcılık ve anlama kabiliyeti sergiler.", - "claude-opus-4-20250514.description": "Claude Opus 4, Anthropic'in karmaşık görevler için en güçlü modelidir; performans, zeka, akıcılık ve anlama açısından öne çıkar.", + "claude-opus-4-1-20250805.description": "Claude Opus 4.1, Anthropic'in en yeni ve en yetenekli modeli olup, karmaşık görevlerde performans, zeka, akıcılık ve anlayışta üstünlük sağlar.", + "claude-opus-4-20250514.description": "Claude Opus 4, Anthropic'in karmaşık görevler için en güçlü modeli olup, performans, zeka, akıcılık ve kavrayışta üstünlük sağlar.", "claude-opus-4-5-20251101.description": "Claude Opus 4.5, Anthropic’in amiral gemisi modelidir; olağanüstü zeka ile ölçeklenebilir performansı birleştirir. En yüksek kaliteli yanıtlar ve akıl yürütme gerektiren karmaşık görevler için idealdir.", - "claude-opus-4-6.description": "Claude Opus 4.6, Anthropic'in ajan geliştirme ve kodlama için en zeki modelidir.", + "claude-opus-4-6.description": "Claude Opus 4.6, ajanlar oluşturma ve kodlama için Anthropic'in en zeki modelidir.", "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking, anında yanıtlar veya adım adım düşünme süreçleri üretebilir.", - "claude-sonnet-4-20250514.description": "Claude Sonnet 4, Anthropic'in bugüne kadarki en zeki modelidir; API kullanıcıları için anında yanıtlar veya adım adım düşünme süreçleriyle ince ayarlı kontrol sunar.", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4, anında yanıtlar veya görünür süreçlerle adım adım düşünme üretebilir.", "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5, Anthropic'in bugüne kadarki en zeki modelidir.", - "claude-sonnet-4-6.description": "Claude Sonnet 4.6, Anthropic'in hız ve zekayı en iyi şekilde birleştiren modelidir.", + "claude-sonnet-4-6.description": "Claude Sonnet 4.6, hız ve zekanın en iyi kombinasyonunu sunar.", "claude-sonnet-4.description": "Claude Sonnet 4, tüm görevlerde geliştirilmiş performansa sahip en yeni nesil modeldir.", "codegeex-4.description": "CodeGeeX-4, geliştirici verimliliğini artırmak için çok dilli Soru-Cevap ve kod tamamlama desteği sunan güçlü bir yapay zeka kodlama asistanıdır.", "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B, çok dilli kod üretimi, kod tamamlama, yorumlama, web arama, fonksiyon çağırma ve depo düzeyinde kod Soru-Cevap gibi geniş yazılım geliştirme senaryolarını kapsayan bir modeldir. 10B parametrenin altındaki en üst düzey kod modellerinden biridir.", @@ -373,7 +371,7 @@ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir modeldir.", "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2, daha güçlü karmaşık akıl yürütme ve düşünce zinciri yeteneklerine sahip yeni nesil bir akıl yürütme modelidir.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2, DeepSeekMoE-27B tabanlı, seyrek etkinleştirme kullanan bir MoE görsel-dil modelidir. Sadece 4.5B aktif parametreyle güçlü performans sunar. Görsel Soru-Cevap, OCR, belge/tablo/grafik anlama ve görsel eşleme konularında öne çıkar.", - "deepseek-chat.description": "DeepSeek V3.2, günlük soru-cevap ve ajan görevleri için akıl yürütme ve çıktı uzunluğu arasında denge kurar. Kamuya açık ölçütlerde GPT-5 seviyelerine ulaşır ve araç kullanımına düşünme sürecini entegre eden ilk modeldir; açık kaynak ajan değerlendirmelerinde öne çıkar.", + "deepseek-chat.description": "Genel ve kod yeteneklerini birleştiren yeni bir açık kaynak modeli. Sohbet modelinin genel diyaloğunu ve kodlayıcı modelinin güçlü kodlama yeteneklerini korur, daha iyi tercih uyumu sağlar. DeepSeek-V2.5 ayrıca yazma ve talimat takibini geliştirir.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B, 2T token (%%87 kod, %%13 Çince/İngilizce metin) ile eğitilmiş bir kodlama dil modelidir. 16K bağlam penceresi ve ortadan doldurma görevleri sunar; proje düzeyinde kod tamamlama ve kod parçacığı doldurma sağlar.", "deepseek-coder-v2.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.", "deepseek-coder-v2:236b.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.", @@ -396,7 +394,7 @@ "deepseek-r1-fast-online.description": "Gerçek zamanlı web aramasıyla 671B ölçekli yetenek ve hızlı yanıtları birleştiren DeepSeek R1 hızlı tam sürüm.", "deepseek-r1-online.description": "671B parametreli ve gerçek zamanlı web aramasına sahip DeepSeek R1 tam sürüm; güçlü anlama ve üretim sunar.", "deepseek-r1.description": "DeepSeek-R1, RL öncesi soğuk başlangıç verileri kullanır ve matematik, kodlama ve akıl yürütmede OpenAI-o1 ile karşılaştırılabilir performans sunar.", - "deepseek-reasoner.description": "DeepSeek V3.2 Thinking, çıktılardan önce düşünce zinciri oluşturarak daha yüksek doğruluk sağlayan derin akıl yürütme modelidir; üst düzey yarışma sonuçları ve Gemini-3.0-Pro ile karşılaştırılabilir akıl yürütme yeteneği sunar.", + "deepseek-reasoner.description": "DeepSeek V3.2 düşünme modu, doğruluğu artırmak için nihai cevaptan önce bir düşünce zinciri üretir.", "deepseek-v2.description": "DeepSeek V2, maliyet etkin işlem için verimli bir MoE modelidir.", "deepseek-v2:236b.description": "DeepSeek V2 236B, güçlü kod üretimi sunan DeepSeek’in kod odaklı modelidir.", "deepseek-v3-0324.description": "DeepSeek-V3-0324, programlama ve teknik yetenek, bağlam anlama ve uzun metin işleme konularında öne çıkan 671B parametreli bir MoE modelidir.", @@ -491,8 +489,7 @@ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K, karmaşık akıl yürütme ve çoklu dönüşlü sohbetler için 32K bağlamlı hızlı düşünme modelidir.", "ernie-x1.1-preview.description": "ERNIE X1.1 Önizleme, değerlendirme ve test için bir düşünme modeli önizlemesidir.", "ernie-x1.1.description": "ERNIE X1.1, değerlendirme ve test için bir düşünme-modeli önizlemesidir.", - "fal-ai/bytedance/seedream/v4.5.description": "ByteDance Seed ekibi tarafından geliştirilen Seedream 4.5, çoklu görsel düzenleme ve kompozisyonu destekler. Geliştirilmiş konu tutarlılığı, talimatlara hassas uyum, mekânsal mantık anlayışı, estetik ifade, afiş yerleşimi ve logo tasarımı ile yüksek hassasiyetli metin-görsel işleme sunar.", - "fal-ai/bytedance/seedream/v4.description": "ByteDance Seed tarafından geliştirilen Seedream 4.0, metin ve görsel girdileri destekleyerek yönlendirmelerden yüksek kaliteli ve kontrol edilebilir görsel üretimi sağlar.", + "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, ByteDance Seed'in metin ve görsel girdileri destekleyen, son derece kontrol edilebilir ve yüksek kaliteli görseller üreten bir görüntü oluşturma modelidir. Metin komutlarından görseller oluşturur.", "fal-ai/flux-kontext/dev.description": "FLUX.1 modeli, metin ve görsel girdileri destekleyen görsel düzenleme odaklı bir modeldir.", "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro], metin ve referans görselleri girdi olarak alarak hedefe yönelik yerel düzenlemeler ve karmaşık sahne dönüşümleri sağlar.", "fal-ai/flux/krea.description": "Flux Krea [dev], daha gerçekçi ve doğal görseller üretmeye eğilimli estetik önyargıya sahip bir görsel üretim modelidir.", @@ -500,8 +497,8 @@ "fal-ai/hunyuan-image/v3.description": "Güçlü bir yerel çok modlu görsel üretim modelidir.", "fal-ai/imagen4/preview.description": "Google tarafından geliştirilen yüksek kaliteli görsel üretim modeli.", "fal-ai/nano-banana.description": "Nano Banana, Google’ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir. Konuşma yoluyla görsel üretim ve düzenleme sağlar.", - "fal-ai/qwen-image-edit.description": "Qwen ekibinden profesyonel bir görsel düzenleme modeli; anlamsal ve görünüm düzenlemeleri, Çince/İngilizce metin düzenleme, stil aktarımı, döndürme ve daha fazlasını destekler.", - "fal-ai/qwen-image.description": "Qwen ekibinden güçlü bir görsel üretim modeli; güçlü Çince metin işleme ve çeşitli görsel stiller sunar.", + "fal-ai/qwen-image-edit.description": "Qwen ekibinden profesyonel bir görüntü düzenleme modeli olup, semantik ve görünüm düzenlemelerini destekler, Çince ve İngilizce metni hassas bir şekilde düzenler ve stil transferi ve nesne döndürme gibi yüksek kaliteli düzenlemeler sağlar.", + "fal-ai/qwen-image.description": "Qwen ekibinden güçlü bir görüntü oluşturma modeli olup, etkileyici Çince metin işleme ve çeşitli görsel stiller sunar.", "flux-1-schnell.description": "Black Forest Labs tarafından geliştirilen 12 milyar parametreli metinden görsele model. Latent adversarial diffusion distillation yöntemiyle 1-4 adımda yüksek kaliteli görseller üretir. Kapalı kaynaklı alternatiflerle rekabet eder ve kişisel, araştırma ve ticari kullanım için Apache-2.0 lisansı ile sunulur.", "flux-dev.description": "FLUX.1 [dev], açık ağırlıklı ve ticari olmayan kullanım için damıtılmış bir modeldir. Neredeyse profesyonel görsel kalitesini ve yönerge takibini korurken daha verimli çalışır ve aynı boyuttaki standart modellere göre kaynakları daha iyi kullanır.", "flux-kontext-max.description": "Metin ve görselleri birleştirerek hassas ve tutarlı sonuçlar sunan son teknoloji bağlamsal görsel üretim ve düzenleme.", @@ -532,8 +529,6 @@ "gemini-2.0-flash-lite-001.description": "Maliyet verimliliği ve düşük gecikme için optimize edilmiş bir Gemini 2.0 Flash varyantı.", "gemini-2.0-flash-lite.description": "Maliyet verimliliği ve düşük gecikme için optimize edilmiş bir Gemini 2.0 Flash varyantı.", "gemini-2.0-flash.description": "Gemini 2.0 Flash, olağanüstü hız, yerel araç kullanımı, çok modlu üretim ve 1M-token bağlam penceresi gibi yeni nesil özellikler sunar.", - "gemini-2.5-flash-image-preview.description": "Nano Banana, Google'ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir; sohbet tabanlı görsel üretim ve düzenleme imkânı sunar.", - "gemini-2.5-flash-image-preview:image.description": "Nano Banana, Google'ın en yeni, en hızlı ve en verimli yerel çok modlu modeli olup, konuşma tabanlı görüntü oluşturma ve düzenleme sağlar.", "gemini-2.5-flash-image.description": "Nano Banana, Google’ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir. Konuşma tabanlı görsel üretim ve düzenleme sağlar.", "gemini-2.5-flash-image:image.description": "Nano Banana, Google’ın en yeni, en hızlı ve en verimli yerel çok modlu modelidir. Konuşma tabanlı görsel üretim ve düzenleme sağlar.", "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview, Google’ın büyük ölçekli kullanım için tasarlanmış en küçük ve en uygun fiyatlı modelidir.", @@ -547,10 +542,10 @@ "gemini-2.5-pro.description": "Gemini 2.5 Pro, Google’ın en gelişmiş akıl yürütme modelidir. Uzun bağlam desteğiyle karmaşık görevleri analiz edebilir.", "gemini-3-flash-preview.description": "Gemini 3 Flash, hız için tasarlanmış en akıllı modeldir. En son yapay zeka zekasını mükemmel arama temellendirmesiyle birleştirir.", "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro), Google'ın çok modlu diyaloğu da destekleyen görüntü oluşturma modelidir.", - "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro), Google'ın görüntü oluşturma modeli olup, aynı zamanda çok modlu sohbeti destekler.", + "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro), Google'ın görüntü oluşturma modeli olup, çok modlu sohbeti de destekler.", "gemini-3-pro-preview.description": "Gemini 3 Pro, Google’ın en güçlü ajan ve vibe-coding modelidir. En yeni akıl yürütme yeteneklerinin üzerine zengin görseller ve derin etkileşim sunar.", "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2), Google'ın düşünme desteği, konuşmalı görüntü oluşturma ve düzenleme özelliklerine sahip en hızlı yerel görüntü oluşturma modelidir.", - "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2), Flash hızında Pro düzeyinde görüntü kalitesi sunar ve çok modlu sohbet desteği sağlar.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2), Google'ın düşünme desteği, sohbet tabanlı görüntü oluşturma ve düzenleme özelliklerine sahip en hızlı yerel görüntü oluşturma modelidir.", "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview, Gemini 3 Pro'ya kıyasla geliştirilmiş akıl yürütme yetenekleri sunar ve orta düzey düşünme desteği ekler.", "gemini-flash-latest.description": "Gemini Flash'ın en son sürümü", "gemini-flash-lite-latest.description": "Gemini Flash-Lite'ın en son sürümü", @@ -692,7 +687,6 @@ "gpt-oss:120b.description": "GPT-OSS 120B, OpenAI'nin MXFP4 kuantizasyonu kullanan büyük açık kaynak LLM modelidir. Çoklu GPU veya üst düzey iş istasyonları gerektirir; karmaşık akıl yürütme, kod üretimi ve çok dilli işleme konularında mükemmel performans sunar. Gelişmiş fonksiyon çağrısı ve araç entegrasyonu destekler.", "gpt-oss:20b.description": "GPT-OSS 20B, OpenAI tarafından geliştirilen MXFP4 kuantizasyonlu açık kaynak LLM modelidir. Üst düzey tüketici GPU'ları veya Apple Silicon Mac'ler için uygundur. Diyalog üretimi, kodlama ve akıl yürütme görevlerinde iyi performans gösterir; fonksiyon çağrısı ve araç kullanımı destekler.", "gpt-realtime.description": "Gerçek zamanlı metin ve ses giriş/çıkışı ile görsel girdi desteği sunan genel amaçlı bir gerçek zamanlı modeldir.", - "grok-2-image-1212.description": "En yeni görsel üretim modelimiz, komutlardan canlı ve gerçekçi görseller üretir; pazarlama, sosyal medya ve eğlence alanlarında öne çıkar.", "grok-2-vision-1212.description": "Geliştirilmiş doğruluk, talimat takibi ve çok dilli yetenekler sunar.", "grok-3-mini.description": "Yanıt vermeden önce düşünen hafif bir modeldir. Derin alan bilgisi gerektirmeyen mantık görevleri için hızlı ve zekidir; ham akıl yürütme izlerine erişim sağlar.", "grok-3.description": "Kurumsal kullanım senaryolarında öne çıkan amiral gemisi modelidir; veri çıkarımı, kodlama ve özetleme gibi görevlerde güçlüdür. Finans, sağlık, hukuk ve bilim alanlarında derin bilgiye sahiptir.", @@ -1141,7 +1135,11 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking, ayrıntılı görsel akıl yürütme için çok modlu bir düşünce zinciri modelidir.", "qwen3-vl-flash.description": "Qwen3 VL Flash: gecikmeye duyarlı veya yüksek hacimli istekler için hafif, yüksek hızlı akıl yürütme sürümüdür.", "qwen3-vl-plus.description": "Qwen VL, görsel anlama yeteneğine sahip bir metin üretim modelidir. OCR yapabilir, özetleyebilir ve akıl yürütebilir; örneğin ürün fotoğraflarından özellik çıkarabilir veya görsellerden problemleri çözebilir.", + "qwen3.5-122b-a10b.description": "Metin, görsel ve video girdilerini destekler. Sadece metin görevlerinde performansı Qwen3 Max ile karşılaştırılabilir olup, daha yüksek verimlilik ve daha düşük maliyet sunar. Çok modlu yeteneklerde Qwen3 VL serisine göre önemli iyileştirmeler sağlar.", + "qwen3.5-27b.description": "Metin, görsel ve video girdilerini destekler. Sadece metin görevlerinde performansı Qwen3 Max ile karşılaştırılabilir olup, daha yüksek verimlilik ve daha düşük maliyet sunar. Çok modlu yeteneklerde Qwen3 VL serisine göre önemli iyileştirmeler sağlar.", + "qwen3.5-35b-a3b.description": "Metin, görsel ve video girdilerini destekler. Sadece metin görevlerinde performansı Qwen3 Max ile karşılaştırılabilir olup, daha yüksek verimlilik ve daha düşük maliyet sunar. Çok modlu yeteneklerde Qwen3 VL serisine göre önemli iyileştirmeler sağlar.", "qwen3.5-397b-a17b.description": "Metin, görüntü ve video girişlerini destekler. Yalnızca metin görevlerinde, performansı Qwen3 Max ile karşılaştırılabilir olup, daha yüksek verimlilik ve daha düşük maliyet sunar. Çok modlu yeteneklerde, Qwen3 VL serisine göre önemli iyileştirmeler sağlar.", + "qwen3.5-flash.description": "En hızlı ve en düşük maliyetli Qwen modeli, basit görevler için idealdir.", "qwen3.5-plus.description": "Qwen3.5 Plus, metin, görüntü ve video girişini destekler. Saf metin görevlerindeki performansı Qwen3 Max ile karşılaştırılabilir olup, daha iyi performans ve daha düşük maliyet sunar. Çok modlu yetenekleri Qwen3 VL serisine kıyasla önemli ölçüde geliştirilmiştir.", "qwen3.5:397b.description": "Qwen3.5, 256K bağlam penceresi ile güçlü çok modlu akıl yürütme, kodlama ve uzun bağlam yetenekleri sunan bir hibrit mimariye (Mixture-of-Experts + lineer dikkat) sahip birleşik bir görsel-dil temel modelidir.", "qwen3.description": "Qwen3, Alibaba’nın çeşitli kullanım senaryolarında güçlü performans sunan yeni nesil büyük dil modelidir.", @@ -1151,8 +1149,6 @@ "qwq.description": "QwQ, Qwen ailesine ait bir akıl yürütme modelidir. Standart talimatla eğitilmiş modellere kıyasla düşünme ve akıl yürütme yetenekleriyle özellikle zor problemler üzerinde performansı önemli ölçüde artırır. QwQ-32B, DeepSeek-R1 ve o1-mini gibi üst düzey modellerle rekabet eden orta boyutlu bir modeldir.", "qwq_32b.description": "Qwen ailesine ait orta boyutlu bir akıl yürütme modelidir. Standart talimatla eğitilmiş modellere kıyasla QwQ’nun düşünme ve akıl yürütme yetenekleri, özellikle zor problemler üzerinde performansı önemli ölçüde artırır.", "r1-1776.description": "R1-1776, sansürsüz ve tarafsız gerçek bilgi sunmak üzere DeepSeek R1 üzerine eğitilmiş bir varyanttır.", - "seedance-1-5-pro-251215.description": "ByteDance tarafından geliştirilen Seedance 1.5 Pro, metinden videoya, görselden videoya (ilk kare, ilk+son kare) ve görsellerle senkronize ses üretimini destekler.", - "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite, BytePlus tarafından geliştirilen, gerçek zamanlı bilgi için web bilgi alma ile artırılmış üretim, karmaşık istem yorumlama ve profesyonel görsel yaratım için geliştirilmiş referans tutarlılığı sunar.", "solar-mini-ja.description": "Solar Mini (Ja), Japonca odaklı geliştirilmiş Solar Mini modelidir; İngilizce ve Korece'de de verimli ve güçlü performans sunar.", "solar-mini.description": "Solar Mini, GPT-3.5'i geride bırakan kompakt bir LLM'dir. İngilizce ve Korece destekli çok dilli yetenekleriyle verimli ve küçük boyutlu bir çözüm sunar.", "solar-pro.description": "Solar Pro, Upstage tarafından geliştirilen yüksek zekaya sahip bir LLM'dir. Tek bir GPU üzerinde talimat izleme odaklıdır ve IFEval skorları 80'in üzerindedir. Şu anda İngilizce desteklidir; tam sürüm Kasım 2024'te daha fazla dil desteği ve uzun bağlamla planlanmıştır.", diff --git a/locales/tr-TR/providers.json b/locales/tr-TR/providers.json index 90c179454c..01b132c235 100644 --- a/locales/tr-TR/providers.json +++ b/locales/tr-TR/providers.json @@ -30,7 +30,6 @@ "internlm.description": "Büyük model araştırmaları ve araçları üzerine odaklanan açık kaynaklı bir organizasyon. En son modelleri ve algoritmaları erişilebilir kılan verimli ve kullanıcı dostu bir platform sağlar.", "jina.description": "2020 yılında kurulan Jina AI, önde gelen bir arama yapay zekası şirketidir. Vektör modelleri, yeniden sıralayıcılar ve küçük dil modelleri içeren arama yığını ile güvenilir ve yüksek kaliteli üretken ve çok modlu arama uygulamaları geliştirir.", "lmstudio.description": "LM Studio, bilgisayarınızda büyük dil modelleriyle geliştirme ve denemeler yapmanızı sağlayan bir masaüstü uygulamasıdır.", - "lobehub.description": "LobeHub Cloud, yapay zeka modellerine erişmek için resmi API'leri kullanır ve kullanım miktarını model jetonlarına bağlı Krediler ile ölçer.", "minimax.description": "2021 yılında kurulan MiniMax, çok modlu temel modellerle genel amaçlı yapay zeka geliştirir. Trilyon parametreli MoE metin modelleri, ses ve görsel modellerin yanı sıra Hailuo AI gibi uygulamalar sunar.", "mistral.description": "Mistral, karmaşık akıl yürütme, çok dilli görevler ve kod üretimi için gelişmiş genel, özel ve araştırma modelleri sunar. Özelleştirilmiş entegrasyonlar için işlev çağrısını destekler.", "modelscope.description": "ModelScope, Alibaba Cloud’un model-hizmet olarak sunduğu platformudur. Geniş bir yapay zeka modeli ve çıkarım hizmeti yelpazesi sunar.", diff --git a/locales/vi-VN/agent.json b/locales/vi-VN/agent.json new file mode 100644 index 0000000000..28f82658a5 --- /dev/null +++ b/locales/vi-VN/agent.json @@ -0,0 +1,34 @@ +{ + "integration.applicationId": "ID Ứng dụng / Tên người dùng Bot", + "integration.applicationIdPlaceholder": "ví dụ: 1234567890", + "integration.botToken": "Mã Token Bot / Khóa API", + "integration.botTokenEncryptedHint": "Token sẽ được mã hóa và lưu trữ an toàn.", + "integration.botTokenHowToGet": "Làm thế nào để lấy?", + "integration.botTokenPlaceholderExisting": "Token được ẩn để bảo mật", + "integration.botTokenPlaceholderNew": "Dán mã token bot của bạn vào đây", + "integration.connectionConfig": "Cấu hình Kết nối", + "integration.copied": "Đã sao chép vào clipboard", + "integration.copy": "Sao chép", + "integration.deleteConfirm": "Bạn có chắc chắn muốn xóa tích hợp này không?", + "integration.disabled": "Đã tắt", + "integration.discord.description": "Kết nối trợ lý này với máy chủ Discord để trò chuyện kênh và tin nhắn trực tiếp.", + "integration.documentation": "Tài liệu", + "integration.enabled": "Đã bật", + "integration.endpointUrl": "URL Điểm Tương Tác", + "integration.endpointUrlHint": "Vui lòng sao chép URL này và dán vào trường \"URL Điểm Tương Tác\" trong Cổng Nhà Phát Triển {{name}}.", + "integration.platforms": "Nền tảng", + "integration.publicKey": "Khóa Công khai", + "integration.publicKeyPlaceholder": "Yêu cầu để xác minh tương tác", + "integration.removeFailed": "Không thể xóa tích hợp", + "integration.removeIntegration": "Xóa Tích hợp", + "integration.removed": "Đã xóa tích hợp", + "integration.save": "Lưu Cấu hình", + "integration.saveFailed": "Không thể lưu cấu hình", + "integration.saveFirstWarning": "Vui lòng lưu cấu hình trước", + "integration.saved": "Cấu hình đã được lưu thành công", + "integration.testConnection": "Kiểm tra Kết nối", + "integration.testFailed": "Kiểm tra kết nối thất bại", + "integration.testSuccess": "Kiểm tra kết nối thành công", + "integration.updateFailed": "Không thể cập nhật trạng thái", + "integration.validationError": "Vui lòng điền ID Ứng dụng và Token" +} diff --git a/locales/vi-VN/chat.json b/locales/vi-VN/chat.json index d86a8f6de5..afedef9db4 100644 --- a/locales/vi-VN/chat.json +++ b/locales/vi-VN/chat.json @@ -336,6 +336,7 @@ "supervisor.todoList.allComplete": "Tất cả nhiệm vụ đã hoàn thành", "supervisor.todoList.title": "Nhiệm vụ đã hoàn thành", "tab.groupProfile": "Hồ sơ nhóm", + "tab.integration": "Tích hợp", "tab.profile": "Hồ sơ tác nhân", "tab.search": "Tìm kiếm", "task.activity.calling": "Đang gọi kỹ năng...", diff --git a/locales/vi-VN/common.json b/locales/vi-VN/common.json index 6ffa7b071b..67231f868b 100644 --- a/locales/vi-VN/common.json +++ b/locales/vi-VN/common.json @@ -209,7 +209,6 @@ "delete": "Xóa", "document": "Hướng dẫn sử dụng", "download": "Tải xuống", - "downloadClient": "Tải xuống client", "duplicate": "Nhân bản", "edit": "Chỉnh sửa", "errors.invalidFileFormat": "Định dạng tệp không hợp lệ", @@ -256,6 +255,7 @@ "footer.star.title": "Gắn sao cho chúng tôi trên GitHub", "footer.title": "Bạn thích sản phẩm của chúng tôi?", "fullscreen": "Chế độ toàn màn hình", + "getDesktopApp": "Tải ứng dụng trên máy tính", "historyRange": "Phạm vi lịch sử", "home.suggestQuestions": "Hãy thử những ví dụ này", "import": "Nhập khẩu", diff --git a/locales/vi-VN/models.json b/locales/vi-VN/models.json index 4a2276a871..dcbacfd814 100644 --- a/locales/vi-VN/models.json +++ b/locales/vi-VN/models.json @@ -77,10 +77,8 @@ "MiniMax-M1.description": "Mô hình suy luận nội bộ mới với 80K chuỗi suy nghĩ và đầu vào 1M, đạt hiệu suất tương đương các mô hình hàng đầu toàn cầu.", "MiniMax-M2-Stable.description": "Được xây dựng cho lập trình hiệu quả và quy trình tác tử, với khả năng đồng thời cao hơn cho mục đích thương mại.", "MiniMax-M2.1-Lightning.description": "Khả năng lập trình đa ngôn ngữ mạnh mẽ, trải nghiệm lập trình được nâng cấp toàn diện. Nhanh hơn và hiệu quả hơn.", - "MiniMax-M2.1-highspeed.description": "Khả năng lập trình đa ngôn ngữ mạnh mẽ với suy luận nhanh hơn và hiệu quả hơn.", "MiniMax-M2.1.description": "Khả năng lập trình đa ngôn ngữ mạnh mẽ, trải nghiệm lập trình được nâng cấp toàn diện", "MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Hiệu suất tương tự, nhanh hơn và linh hoạt hơn (khoảng 100 tps).", - "MiniMax-M2.5-highspeed.description": "Hiệu suất tương tự như M2.5 với suy luận nhanh hơn đáng kể.", "MiniMax-M2.5.description": "MiniMax-M2.5 là mô hình lớn mã nguồn mở hàng đầu từ MiniMax, tập trung vào việc giải quyết các nhiệm vụ thực tế phức tạp. Điểm mạnh cốt lõi của nó là khả năng lập trình đa ngôn ngữ và khả năng giải quyết các nhiệm vụ phức tạp như một Agent.", "MiniMax-M2.description": "Được xây dựng chuyên biệt cho lập trình hiệu quả và quy trình làm việc của Agent", "MiniMax-Text-01.description": "MiniMax-01 giới thiệu cơ chế chú ý tuyến tính quy mô lớn vượt ra ngoài Transformer cổ điển, với 456B tham số và 45.9B được kích hoạt mỗi lượt. Mô hình đạt hiệu suất hàng đầu và hỗ trợ ngữ cảnh lên đến 4M token (gấp 32 lần GPT-4o, 20 lần Claude-3.5-Sonnet).", @@ -283,9 +281,9 @@ "chatgpt-4o-latest.description": "ChatGPT-4o là mô hình động được cập nhật theo thời gian thực. Nó kết hợp khả năng hiểu và tạo ngôn ngữ mạnh mẽ cho các trường hợp sử dụng quy mô lớn như hỗ trợ khách hàng, giáo dục và hỗ trợ kỹ thuật.", "claude-2.0.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.", "claude-2.1.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.", - "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ mới nhanh nhất của Anthropic, cải thiện toàn diện các kỹ năng và vượt qua mô hình hàng đầu trước đó Claude 3 Opus trên nhiều tiêu chuẩn đánh giá.", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ tiếp theo nhanh nhất của Anthropic. So với Claude 3 Haiku, nó cải thiện trên nhiều kỹ năng và vượt qua mô hình lớn nhất trước đó Claude 3 Opus trên nhiều tiêu chuẩn trí tuệ.", "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku cung cấp phản hồi nhanh cho các tác vụ nhẹ.", - "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 là mô hình thông minh nhất của Anthropic và là mô hình suy luận lai đầu tiên trên thị trường, hỗ trợ phản hồi gần như tức thì hoặc suy nghĩ kéo dài với khả năng kiểm soát chi tiết.", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet là mô hình thông minh nhất của Anthropic và là mô hình lai đầu tiên trên thị trường. Nó có thể tạo ra phản hồi gần như tức thì hoặc lý luận từng bước mở rộng mà người dùng có thể theo dõi. Sonnet đặc biệt mạnh mẽ trong lập trình, khoa học dữ liệu, thị giác và các nhiệm vụ đại lý.", "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.", "claude-3-haiku-20240307.description": "Claude 3 Haiku là mô hình nhanh nhất và nhỏ gọn nhất của Anthropic, được thiết kế cho phản hồi gần như tức thì với hiệu suất nhanh và chính xác.", "claude-3-opus-20240229.description": "Claude 3 Opus là mô hình mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.", @@ -293,17 +291,17 @@ "claude-3.5-sonnet.description": "Claude 3.5 Sonnet vượt trội trong lập trình, viết lách và tư duy phức tạp.", "claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet với khả năng tư duy mở rộng cho các nhiệm vụ suy luận phức tạp.", "claude-3.7-sonnet.description": "Claude 3.7 Sonnet là phiên bản nâng cấp với ngữ cảnh và năng lực mở rộng.", - "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic, với tốc độ cực nhanh và khả năng suy nghĩ mở rộng.", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic, với tốc độ cực nhanh và khả năng lý luận mở rộng.", "claude-haiku-4.5.description": "Claude Haiku 4.5 là mô hình nhanh và hiệu quả cho nhiều tác vụ khác nhau.", "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking là biến thể nâng cao có thể hiển thị quá trình suy luận của nó.", - "claude-opus-4-1-20250805.description": "Claude Opus 4.1 là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu.", - "claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu.", + "claude-opus-4-1-20250805.description": "Claude Opus 4.1 là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các nhiệm vụ phức tạp cao, vượt trội về hiệu suất, trí tuệ, lưu loát và hiểu biết.", + "claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic cho các nhiệm vụ phức tạp cao, vượt trội về hiệu suất, trí tuệ, lưu loát và khả năng hiểu.", "claude-opus-4-5-20251101.description": "Claude Opus 4.5 là mô hình hàng đầu của Anthropic, kết hợp trí tuệ vượt trội với hiệu suất có thể mở rộng, lý tưởng cho các tác vụ phức tạp đòi hỏi phản hồi và suy luận chất lượng cao nhất.", - "claude-opus-4-6.description": "Claude Opus 4.6 là mô hình thông minh nhất của Anthropic dành cho xây dựng tác tử và lập trình.", + "claude-opus-4-6.description": "Claude Opus 4.6 là mô hình thông minh nhất của Anthropic dành cho việc xây dựng đại lý và lập trình.", "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking có thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng với quy trình hiển thị.", - "claude-sonnet-4-20250514.description": "Claude Sonnet 4 là mô hình thông minh nhất của Anthropic cho đến nay, cung cấp phản hồi gần như tức thì hoặc suy nghĩ từng bước kéo dài với khả năng kiểm soát chi tiết cho người dùng API.", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4 có thể tạo ra phản hồi gần như tức thì hoặc suy nghĩ từng bước mở rộng với quy trình hiển thị.", "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 là mô hình thông minh nhất của Anthropic cho đến nay.", - "claude-sonnet-4-6.description": "Claude Sonnet 4.6 là sự kết hợp tốt nhất giữa tốc độ và trí thông minh của Anthropic.", + "claude-sonnet-4-6.description": "Claude Sonnet 4.6 là sự kết hợp tốt nhất giữa tốc độ và trí tuệ của Anthropic.", "claude-sonnet-4.description": "Claude Sonnet 4 là thế hệ mới nhất với hiệu suất cải thiện trên mọi tác vụ.", "codegeex-4.description": "CodeGeeX-4 là trợ lý lập trình AI mạnh mẽ hỗ trợ hỏi đáp đa ngôn ngữ và hoàn thành mã để tăng năng suất lập trình viên.", "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B là mô hình tạo mã đa ngôn ngữ hỗ trợ hoàn thành và sinh mã, thông dịch mã, tìm kiếm web, gọi hàm và hỏi đáp mã ở cấp độ kho lưu trữ, bao phủ nhiều tình huống phát triển phần mềm. Đây là mô hình mã hàng đầu dưới 10 tỷ tham số.", @@ -373,7 +371,7 @@ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 là mô hình suy luận thế hệ mới với khả năng suy luận phức tạp mạnh mẽ và chuỗi suy nghĩ cho các tác vụ phân tích chuyên sâu.", "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 là mô hình suy luận thế hệ mới với khả năng suy luận phức tạp mạnh mẽ và tư duy chuỗi.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 là mô hình thị giác-ngôn ngữ MoE dựa trên DeepSeekMoE-27B với kích hoạt thưa, đạt hiệu suất cao với chỉ 4.5B tham số hoạt động. Mô hình vượt trội trong QA thị giác, OCR, hiểu tài liệu/bảng/biểu đồ và định vị hình ảnh.", - "deepseek-chat.description": "DeepSeek V3.2 cân bằng giữa khả năng suy luận và độ dài đầu ra cho các tác vụ hỏi đáp hàng ngày và tác tử. Trên các tiêu chuẩn công khai, mô hình đạt mức GPT-5 và là mô hình đầu tiên tích hợp tư duy vào việc sử dụng công cụ, dẫn đầu trong các đánh giá tác tử mã nguồn mở.", + "deepseek-chat.description": "Một mô hình mã nguồn mở mới kết hợp khả năng tổng quát và lập trình. Nó duy trì đối thoại chung của mô hình trò chuyện và khả năng lập trình mạnh mẽ của mô hình lập trình, với sự căn chỉnh sở thích tốt hơn. DeepSeek-V2.5 cũng cải thiện khả năng viết và làm theo hướng dẫn.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B là mô hình ngôn ngữ lập trình được huấn luyện trên 2 nghìn tỷ token (87% mã nguồn, 13% văn bản tiếng Trung/Anh). Mô hình này hỗ trợ cửa sổ ngữ cảnh 16K và nhiệm vụ điền vào giữa đoạn mã, cung cấp khả năng hoàn thành mã ở cấp độ dự án và chèn đoạn mã chính xác.", "deepseek-coder-v2.description": "DeepSeek Coder V2 là mô hình mã nguồn MoE mã nguồn mở với hiệu suất mạnh mẽ trong các tác vụ lập trình, có thể so sánh với GPT-4 Turbo.", "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 là mô hình mã nguồn MoE mã nguồn mở với hiệu suất mạnh mẽ trong các tác vụ lập trình, có thể so sánh với GPT-4 Turbo.", @@ -396,7 +394,7 @@ "deepseek-r1-fast-online.description": "Phiên bản đầy đủ DeepSeek R1 nhanh với tìm kiếm web thời gian thực, kết hợp khả năng 671B và phản hồi nhanh hơn.", "deepseek-r1-online.description": "Phiên bản đầy đủ DeepSeek R1 với 671B tham số và tìm kiếm web thời gian thực, mang lại khả năng hiểu và tạo nội dung mạnh mẽ hơn.", "deepseek-r1.description": "DeepSeek-R1 sử dụng dữ liệu khởi động lạnh trước khi áp dụng học tăng cường và đạt hiệu suất tương đương OpenAI-o1 trong các tác vụ toán học, lập trình và suy luận.", - "deepseek-reasoner.description": "DeepSeek V3.2 Thinking là mô hình suy luận sâu, tạo chuỗi suy nghĩ trước khi đưa ra kết quả để đạt độ chính xác cao hơn, đạt kết quả hàng đầu trong các cuộc thi và khả năng suy luận tương đương Gemini-3.0-Pro.", + "deepseek-reasoner.description": "Chế độ suy nghĩ DeepSeek V3.2 xuất ra chuỗi suy nghĩ trước khi đưa ra câu trả lời cuối cùng để cải thiện độ chính xác.", "deepseek-v2.description": "DeepSeek V2 là mô hình MoE hiệu quả cho xử lý tiết kiệm chi phí.", "deepseek-v2:236b.description": "DeepSeek V2 236B là mô hình tập trung vào mã nguồn của DeepSeek với khả năng tạo mã mạnh mẽ.", "deepseek-v3-0324.description": "DeepSeek-V3-0324 là mô hình MoE với 671B tham số, nổi bật về lập trình, khả năng kỹ thuật, hiểu ngữ cảnh và xử lý văn bản dài.", @@ -491,8 +489,7 @@ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K là mô hình tư duy nhanh với ngữ cảnh 32K dành cho lý luận phức tạp và trò chuyện nhiều lượt.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview là bản xem trước mô hình tư duy để đánh giá và thử nghiệm.", "ernie-x1.1.description": "ERNIE X1.1 là mô hình suy nghĩ thử nghiệm dành cho đánh giá và kiểm tra.", - "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, được phát triển bởi nhóm Seed của ByteDance, hỗ trợ chỉnh sửa và phối hợp nhiều hình ảnh. Tính năng bao gồm duy trì nhất quán chủ thể, tuân thủ chính xác hướng dẫn, hiểu logic không gian, biểu đạt thẩm mỹ, bố cục poster và thiết kế logo với khả năng kết xuất văn bản-hình ảnh chính xác cao.", - "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, được phát triển bởi ByteDance Seed, hỗ trợ đầu vào văn bản và hình ảnh để tạo hình ảnh chất lượng cao, có thể kiểm soát tốt từ lời nhắc.", + "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 là mô hình tạo hình ảnh từ ByteDance Seed, hỗ trợ đầu vào văn bản và hình ảnh với khả năng tạo hình ảnh chất lượng cao, dễ kiểm soát. Nó tạo ra hình ảnh từ các gợi ý văn bản.", "fal-ai/flux-kontext/dev.description": "Mô hình FLUX.1 tập trung vào chỉnh sửa hình ảnh, hỗ trợ đầu vào văn bản và hình ảnh.", "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] chấp nhận đầu vào là văn bản và hình ảnh tham chiếu, cho phép chỉnh sửa cục bộ chính xác và biến đổi toàn cảnh phức tạp.", "fal-ai/flux/krea.description": "Flux Krea [dev] là mô hình tạo hình ảnh với thiên hướng thẩm mỹ hướng đến hình ảnh chân thực và tự nhiên hơn.", @@ -500,8 +497,8 @@ "fal-ai/hunyuan-image/v3.description": "Mô hình tạo hình ảnh đa phương thức mạnh mẽ bản địa.", "fal-ai/imagen4/preview.description": "Mô hình tạo hình ảnh chất lượng cao từ Google.", "fal-ai/nano-banana.description": "Nano Banana là mô hình đa phương thức bản địa mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh thông qua hội thoại.", - "fal-ai/qwen-image-edit.description": "Mô hình chỉnh sửa hình ảnh chuyên nghiệp từ nhóm Qwen, hỗ trợ chỉnh sửa ngữ nghĩa và hình thức, chỉnh sửa văn bản tiếng Trung/Anh chính xác, chuyển đổi phong cách, xoay ảnh và nhiều hơn nữa.", - "fal-ai/qwen-image.description": "Mô hình tạo hình ảnh mạnh mẽ từ nhóm Qwen với khả năng kết xuất văn bản tiếng Trung mạnh mẽ và phong cách hình ảnh đa dạng.", + "fal-ai/qwen-image-edit.description": "Một mô hình chỉnh sửa hình ảnh chuyên nghiệp từ đội ngũ Qwen, hỗ trợ chỉnh sửa ngữ nghĩa và hình thức, chỉnh sửa chính xác văn bản tiếng Trung và tiếng Anh, và cho phép các chỉnh sửa chất lượng cao như chuyển đổi phong cách và xoay đối tượng.", + "fal-ai/qwen-image.description": "Một mô hình tạo hình ảnh mạnh mẽ từ đội ngũ Qwen với khả năng hiển thị văn bản tiếng Trung ấn tượng và các phong cách hình ảnh đa dạng.", "flux-1-schnell.description": "Mô hình chuyển văn bản thành hình ảnh với 12 tỷ tham số từ Black Forest Labs, sử dụng phương pháp khuếch tán đối kháng tiềm ẩn để tạo hình ảnh chất lượng cao chỉ trong 1–4 bước. Mô hình cạnh tranh với các lựa chọn đóng và được phát hành theo giấy phép Apache-2.0 cho mục đích cá nhân, nghiên cứu và thương mại.", "flux-dev.description": "FLUX.1 [dev] là mô hình chưng cất mã nguồn mở dành cho mục đích phi thương mại. Mô hình giữ chất lượng hình ảnh gần như chuyên nghiệp và khả năng tuân thủ hướng dẫn, đồng thời hoạt động hiệu quả hơn, sử dụng tài nguyên tốt hơn so với các mô hình tiêu chuẩn cùng kích thước.", "flux-kontext-max.description": "Tạo và chỉnh sửa hình ảnh theo ngữ cảnh tiên tiến, kết hợp văn bản và hình ảnh để tạo ra kết quả chính xác và mạch lạc.", @@ -532,8 +529,6 @@ "gemini-2.0-flash-lite-001.description": "Biến thể Gemini 2.0 Flash được tối ưu hóa cho hiệu quả chi phí và độ trễ thấp.", "gemini-2.0-flash-lite.description": "Biến thể Gemini 2.0 Flash được tối ưu hóa cho hiệu quả chi phí và độ trễ thấp.", "gemini-2.0-flash.description": "Gemini 2.0 Flash mang đến các tính năng thế hệ mới bao gồm tốc độ vượt trội, sử dụng công cụ gốc, tạo nội dung đa phương thức và cửa sổ ngữ cảnh 1 triệu token.", - "gemini-2.5-flash-image-preview.description": "Nano Banana là mô hình đa phương thức gốc mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh qua hội thoại.", - "gemini-2.5-flash-image-preview:image.description": "Nano Banana là mô hình đa phương thức gốc mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh qua hội thoại.", "gemini-2.5-flash-image.description": "Nano Banana là mô hình đa phương thức gốc mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh thông qua hội thoại.", "gemini-2.5-flash-image:image.description": "Nano Banana là mô hình đa phương thức gốc mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh thông qua hội thoại.", "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview là mô hình nhỏ nhất và có giá trị tốt nhất của Google, được thiết kế cho các trường hợp sử dụng quy mô lớn.", @@ -547,10 +542,10 @@ "gemini-2.5-pro.description": "Gemini 2.5 Pro là mô hình suy luận tiên tiến nhất của Google, có khả năng suy luận trên mã, toán học và các vấn đề STEM, cũng như phân tích tập dữ liệu lớn, mã nguồn và tài liệu với ngữ cảnh dài.", "gemini-3-flash-preview.description": "Gemini 3 Flash là mô hình thông minh nhất được xây dựng để tối ưu tốc độ, kết hợp trí tuệ tiên tiến với khả năng tìm kiếm chính xác.", "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) là mô hình tạo hình ảnh của Google, cũng hỗ trợ đối thoại đa phương thức.", - "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) là mô hình tạo hình ảnh của Google, đồng thời hỗ trợ trò chuyện đa phương thức.", + "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) là mô hình tạo hình ảnh của Google và cũng hỗ trợ trò chuyện đa phương thức.", "gemini-3-pro-preview.description": "Gemini 3 Pro là mô hình mạnh mẽ nhất của Google, kết hợp khả năng mã hóa cảm xúc và suy luận tiên tiến, mang đến hình ảnh phong phú và tương tác sâu sắc.", "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) là mô hình tạo hình ảnh bản địa nhanh nhất của Google với hỗ trợ suy nghĩ, tạo hình ảnh đối thoại và chỉnh sửa.", - "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) mang lại chất lượng hình ảnh cấp độ chuyên nghiệp với tốc độ Flash và hỗ trợ hội thoại đa phương thức.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) là mô hình tạo hình ảnh nhanh nhất của Google với hỗ trợ suy nghĩ, tạo và chỉnh sửa hình ảnh trong hội thoại.", "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview cải tiến Gemini 3 Pro với khả năng suy luận nâng cao và bổ sung hỗ trợ mức suy nghĩ trung bình.", "gemini-flash-latest.description": "Phiên bản mới nhất của Gemini Flash", "gemini-flash-lite-latest.description": "Phiên bản mới nhất của Gemini Flash-Lite", @@ -692,7 +687,6 @@ "gpt-oss:120b.description": "GPT-OSS 120B là mô hình LLM mã nguồn mở lớn của OpenAI sử dụng lượng tử hóa MXFP4, được định vị là mô hình hàng đầu. Yêu cầu môi trường đa GPU hoặc máy trạm cao cấp và mang lại hiệu suất xuất sắc trong suy luận phức tạp, tạo mã và xử lý đa ngôn ngữ, với khả năng gọi hàm và tích hợp công cụ nâng cao.", "gpt-oss:20b.description": "GPT-OSS 20B là LLM mã nguồn mở từ OpenAI sử dụng lượng tử hóa MXFP4, phù hợp với GPU cao cấp cho người dùng hoặc máy Mac Apple Silicon. Hiệu quả trong tạo hội thoại, lập trình và suy luận, hỗ trợ gọi hàm và sử dụng công cụ.", "gpt-realtime.description": "Mô hình thời gian thực tổng quát hỗ trợ đầu vào/ra văn bản và âm thanh theo thời gian thực, cùng với đầu vào hình ảnh.", - "grok-2-image-1212.description": "Mô hình tạo hình ảnh mới nhất của chúng tôi tạo ra hình ảnh sống động, chân thực từ lời nhắc và vượt trội trong các trường hợp sử dụng như tiếp thị, mạng xã hội và giải trí.", "grok-2-vision-1212.description": "Cải thiện độ chính xác, tuân thủ hướng dẫn và khả năng đa ngôn ngữ.", "grok-3-mini.description": "Mô hình nhẹ, suy nghĩ trước khi phản hồi. Nhanh và thông minh cho các tác vụ logic không yêu cầu kiến thức chuyên sâu, với khả năng truy vết suy luận thô.", "grok-3.description": "Mô hình hàng đầu vượt trội trong các trường hợp doanh nghiệp như trích xuất dữ liệu, lập trình và tóm tắt, với kiến thức chuyên sâu trong tài chính, y tế, pháp luật và khoa học.", @@ -1141,7 +1135,11 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking là mô hình chuỗi tư duy đa phương thức cho lập luận hình ảnh chi tiết.", "qwen3-vl-flash.description": "Qwen3 VL Flash: phiên bản lập luận nhẹ, tốc độ cao cho các yêu cầu nhạy cảm với độ trễ hoặc khối lượng lớn.", "qwen3-vl-plus.description": "Qwen VL là mô hình sinh văn bản với khả năng hiểu hình ảnh. Nó có thể thực hiện OCR, tóm tắt và lập luận, chẳng hạn như trích xuất thuộc tính từ ảnh sản phẩm hoặc giải quyết vấn đề từ hình ảnh.", + "qwen3.5-122b-a10b.description": "Hỗ trợ đầu vào văn bản, hình ảnh và video. Đối với các nhiệm vụ chỉ văn bản, hiệu suất của nó tương đương với Qwen3 Max, mang lại hiệu quả cao hơn và chi phí thấp hơn. Trong các khả năng đa phương thức, nó mang lại những cải tiến đáng kể so với dòng Qwen3 VL.", + "qwen3.5-27b.description": "Hỗ trợ đầu vào văn bản, hình ảnh và video. Đối với các nhiệm vụ chỉ văn bản, hiệu suất của nó tương đương với Qwen3 Max, mang lại hiệu quả cao hơn và chi phí thấp hơn. Trong các khả năng đa phương thức, nó mang lại những cải tiến đáng kể so với dòng Qwen3 VL.", + "qwen3.5-35b-a3b.description": "Hỗ trợ đầu vào văn bản, hình ảnh và video. Đối với các nhiệm vụ chỉ văn bản, hiệu suất của nó tương đương với Qwen3 Max, mang lại hiệu quả cao hơn và chi phí thấp hơn. Trong các khả năng đa phương thức, nó mang lại những cải tiến đáng kể so với dòng Qwen3 VL.", "qwen3.5-397b-a17b.description": "Hỗ trợ đầu vào văn bản, hình ảnh và video. Đối với các nhiệm vụ chỉ văn bản, hiệu suất của nó tương đương với Qwen3 Max, mang lại hiệu quả cao hơn và chi phí thấp hơn. Trong khả năng đa phương thức, nó mang lại cải tiến đáng kể so với dòng Qwen3 VL.", + "qwen3.5-flash.description": "Mô hình Qwen nhanh nhất và chi phí thấp nhất, lý tưởng cho các nhiệm vụ đơn giản.", "qwen3.5-plus.description": "Qwen3.5 Plus hỗ trợ đầu vào văn bản, hình ảnh và video. Hiệu suất của nó trên các nhiệm vụ văn bản thuần tương đương với Qwen3 Max, với hiệu suất tốt hơn và chi phí thấp hơn. Khả năng đa phương thức của nó được cải thiện đáng kể so với dòng Qwen3 VL.", "qwen3.5:397b.description": "Qwen3.5 là mô hình nền tảng kết hợp thị giác-ngôn ngữ với kiến trúc lai (Mixture-of-Experts + linear attention), mang lại khả năng suy luận đa phương thức mạnh mẽ, mã hóa và khả năng ngữ cảnh dài với cửa sổ ngữ cảnh 256K.", "qwen3.description": "Qwen3 là mô hình ngôn ngữ lớn thế hệ tiếp theo của Alibaba với hiệu suất mạnh mẽ trên nhiều trường hợp sử dụng khác nhau.", @@ -1151,8 +1149,6 @@ "qwq.description": "QwQ là mô hình lập luận trong họ Qwen. So với các mô hình điều chỉnh theo hướng dẫn tiêu chuẩn, nó mang lại khả năng tư duy và lập luận giúp cải thiện đáng kể hiệu suất các tác vụ phía sau, đặc biệt là các vấn đề khó. QwQ-32B là mô hình lập luận tầm trung có thể cạnh tranh với các mô hình hàng đầu như DeepSeek-R1 và o1-mini.", "qwq_32b.description": "Mô hình lập luận tầm trung trong họ Qwen. So với các mô hình điều chỉnh theo hướng dẫn tiêu chuẩn, khả năng tư duy và lập luận của QwQ giúp cải thiện đáng kể hiệu suất các tác vụ phía sau, đặc biệt là các vấn đề khó.", "r1-1776.description": "R1-1776 là biến thể hậu huấn luyện của DeepSeek R1 được thiết kế để cung cấp thông tin thực tế không kiểm duyệt, không thiên lệch.", - "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro của ByteDance hỗ trợ chuyển đổi văn bản thành video, hình ảnh thành video (khung đầu tiên, khung đầu tiên + cuối cùng), và tạo âm thanh đồng bộ với hình ảnh.", - "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite của BytePlus có khả năng tạo hình ảnh được tăng cường truy xuất web để cung cấp thông tin theo thời gian thực, diễn giải gợi ý phức tạp được cải thiện và tính nhất quán tham chiếu được nâng cao cho sáng tạo hình ảnh chuyên nghiệp.", "solar-mini-ja.description": "Solar Mini (Ja) mở rộng Solar Mini với trọng tâm vào tiếng Nhật trong khi vẫn duy trì hiệu suất mạnh mẽ và hiệu quả với tiếng Anh và tiếng Hàn.", "solar-mini.description": "Solar Mini là mô hình ngôn ngữ nhỏ gọn vượt trội hơn GPT-3.5, với khả năng đa ngôn ngữ mạnh mẽ hỗ trợ tiếng Anh và tiếng Hàn, mang lại giải pháp hiệu quả với dung lượng nhỏ.", "solar-pro.description": "Solar Pro là mô hình ngôn ngữ thông minh cao từ Upstage, tập trung vào tuân thủ hướng dẫn trên một GPU duy nhất, với điểm IFEval trên 80. Hiện hỗ trợ tiếng Anh; bản phát hành đầy đủ dự kiến vào tháng 11 năm 2024 với hỗ trợ ngôn ngữ mở rộng và ngữ cảnh dài hơn.", diff --git a/locales/vi-VN/providers.json b/locales/vi-VN/providers.json index 482b8e05cf..78ac1effd2 100644 --- a/locales/vi-VN/providers.json +++ b/locales/vi-VN/providers.json @@ -30,7 +30,6 @@ "internlm.description": "Tổ chức mã nguồn mở tập trung vào nghiên cứu mô hình lớn và công cụ, cung cấp nền tảng hiệu quả, dễ sử dụng để tiếp cận các mô hình và thuật toán tiên tiến.", "jina.description": "Thành lập năm 2020, Jina AI là công ty hàng đầu về AI tìm kiếm. Bộ công cụ tìm kiếm của họ bao gồm mô hình vector, bộ xếp hạng lại và mô hình ngôn ngữ nhỏ để xây dựng ứng dụng tìm kiếm sinh và đa phương thức chất lượng cao.", "lmstudio.description": "LM Studio là ứng dụng máy tính để phát triển và thử nghiệm LLM ngay trên máy của bạn.", - "lobehub.description": "LobeHub Cloud sử dụng API chính thức để truy cập các mô hình AI và đo lường mức sử dụng bằng Tín dụng gắn liền với số lượng token của mô hình.", "minimax.description": "Thành lập năm 2021, MiniMax xây dựng AI đa năng với các mô hình nền tảng đa phương thức, bao gồm mô hình văn bản MoE hàng nghìn tỷ tham số, mô hình giọng nói và thị giác, cùng các ứng dụng như Hailuo AI.", "mistral.description": "Mistral cung cấp các mô hình tổng quát, chuyên biệt và nghiên cứu tiên tiến cho suy luận phức tạp, tác vụ đa ngôn ngữ và tạo mã, với khả năng gọi hàm cho tích hợp tùy chỉnh.", "modelscope.description": "ModelScope là nền tảng mô hình dưới dạng dịch vụ của Alibaba Cloud, cung cấp nhiều mô hình AI và dịch vụ suy luận.", diff --git a/locales/zh-CN/common.json b/locales/zh-CN/common.json index 745210c5b4..0d42486dca 100644 --- a/locales/zh-CN/common.json +++ b/locales/zh-CN/common.json @@ -209,7 +209,6 @@ "delete": "删除", "document": "使用文档", "download": "下载", - "downloadClient": "下载客户端", "duplicate": "创建副本", "edit": "编辑", "errors.invalidFileFormat": "文件格式错误", @@ -256,6 +255,7 @@ "footer.star.title": "在 GitHub 为我们点亮星标", "footer.title": "喜欢我们的产品?", "fullscreen": "全屏模式", + "getDesktopApp": "获取桌面应用", "historyRange": "历史范围", "home.suggestQuestions": "试试这些示例", "import": "导入", diff --git a/locales/zh-CN/models.json b/locales/zh-CN/models.json index 135bd93e29..a4af69d48b 100644 --- a/locales/zh-CN/models.json +++ b/locales/zh-CN/models.json @@ -77,10 +77,8 @@ "MiniMax-M1.description": "一款全新自研推理模型,支持 80K 思维链和 100 万输入,性能媲美全球顶尖模型。", "MiniMax-M2-Stable.description": "专为高效编程与智能体工作流打造,具备更高并发能力,适用于商业场景。", "MiniMax-M2.1-Lightning.description": "强大的多语言编程能力,全面升级的编程体验。更快、更高效。", - "MiniMax-M2.1-highspeed.description": "强大的多语言编程能力,推理速度更快、更高效。", "MiniMax-M2.1.description": "MiniMax-M2.1 是 MiniMax 推出的旗舰开源大模型,专注于解决复杂的现实世界任务。其核心优势在于多语言编程能力以及作为智能体解决复杂任务的能力。", "MiniMax-M2.5-Lightning.description": "M2.5 Lightning:相同性能,更快更灵活(约 100 tps)。", - "MiniMax-M2.5-highspeed.description": "与 M2.5 性能相同,但推理速度显著提升。", "MiniMax-M2.5.description": "MiniMax-M2.5 是 MiniMax 推出的旗舰开源大模型,专注于解决复杂的现实世界任务。其核心优势在于多语言编程能力以及作为 Agent 解决复杂任务的能力。", "MiniMax-M2.description": "专为高效编程与智能体工作流打造", "MiniMax-Text-01.description": "MiniMax-01 引入超越传统 Transformer 的大规模线性注意力机制,拥有 4560 亿参数,每次激活 459 亿,支持最长 400 万上下文(为 GPT-4o 的 32 倍,Claude-3.5-Sonnet 的 20 倍),性能顶尖。", @@ -283,9 +281,9 @@ "chatgpt-4o-latest.description": "ChatGPT-4o是一个实时更新的动态模型,结合了强大的语言理解和生成能力,适用于客户支持、教育和技术协助等大规模应用场景。", "claude-2.0.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。", "claude-2.1.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。", - "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的下一代最快模型,在多项技能上实现了提升,并在多个基准测试中超越了前一代旗舰 Claude 3 Opus。", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 最新一代速度最快的模型。与 Claude 3 Haiku 相比,它在各项技能上都有提升,并在许多智能基准测试中超越了之前最大的模型 Claude 3 Opus。", "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速响应,适用于轻量级任务。", - "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 是 Anthropic 最智能的模型,也是市场上首个混合推理模型,支持近乎即时响应或细致入微的深度思考,具备精细化控制能力。", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet 是 Anthropic 最智能的模型,也是市场上首个混合推理模型。它可以生成近乎即时的响应或用户可见的逐步推理过程。Sonnet 在编程、数据科学、视觉和代理任务方面表现尤为出色。", "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。", "claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快、最紧凑的模型,专为近乎即时响应而设计,具备快速且准确的性能。", "claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。", @@ -293,17 +291,17 @@ "claude-3.5-sonnet.description": "Claude 3.5 Sonnet 擅长编程、写作和复杂推理。", "claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet 具备扩展思维能力,适用于复杂推理任务。", "claude-3.7-sonnet.description": "Claude 3.7 Sonnet 是升级版本,具备更强的上下文理解和处理能力。", - "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快且最智能的 Haiku 模型,兼具闪电般的速度与深度思考能力。", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 最快、最智能的 Haiku 模型,具有闪电般的速度和扩展推理能力。", "claude-haiku-4.5.description": "Claude Haiku 4.5 是一款高效快速的模型,适用于多种任务。", "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一款高级变体,能够展示其推理过程。", - "claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新、最强大的模型,专为处理高度复杂任务而设计,在性能、智能、流畅性和理解力方面表现卓越。", - "claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最强大的模型,专注于处理高度复杂的任务,在性能、智能、流畅性和理解力方面表现出色。", + "claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新且最强大的模型,专为处理高度复杂的任务而设计,在性能、智能、流畅性和理解力方面表现卓越。", + "claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最强大的模型,专为处理高度复杂的任务而设计,在性能、智能、流畅性和理解力方面表现卓越。", "claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合卓越智能与可扩展性能,适用于需要最高质量响应与推理的复杂任务。", - "claude-opus-4-6.description": "Claude Opus 4.6 是 Anthropic 最智能的模型,专为构建智能体和编程任务而优化。", + "claude-opus-4-6.description": "Claude Opus 4.6 是 Anthropic 最智能的模型,专注于构建代理和编程任务。", "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可生成近乎即时的响应或可视化的逐步推理过程。", - "claude-sonnet-4-20250514.description": "Claude Sonnet 4 是 Anthropic 迄今为止最智能的模型,支持近乎即时响应或逐步深入思考,API 用户可实现精细化控制。", - "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今为止最智能的模型。", - "claude-sonnet-4-6.description": "Claude Sonnet 4.6 是 Anthropic 最佳的速度与智能结合体。", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4 可以生成近乎即时的响应或用户可见的逐步推理过程。", + "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是迄今为止 Anthropic 最智能的模型。", + "claude-sonnet-4-6.description": "Claude Sonnet 4.6 是速度与智能的最佳结合。", "claude-sonnet-4.description": "Claude Sonnet 4 是最新一代模型,在各类任务中表现更为出色。", "codegeex-4.description": "CodeGeeX-4 是一款强大的 AI 编程助手,支持多语言问答和代码补全,提升开发者效率。", "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一款多语言代码生成模型,支持代码补全与生成、代码解释器、网页搜索、函数调用和仓库级代码问答,覆盖广泛的软件开发场景。是 100 亿参数以下的顶级代码模型。", @@ -373,7 +371,7 @@ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。", "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2是下一代推理模型,具备更强的复杂推理和链式思维能力。", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是基于 DeepSeekMoE-27B 的 MoE 视觉语言模型,采用稀疏激活,仅使用 4.5B 激活参数即可实现强大性能。擅长视觉问答、OCR、文档/表格/图表理解和视觉定位。", - "deepseek-chat.description": "DeepSeek V3.2 在推理能力与输出长度之间实现平衡,适用于日常问答与智能体任务。其在公开基准测试中达到 GPT-5 水平,并首创将思维过程融入工具使用,在开源智能体评估中表现领先。", + "deepseek-chat.description": "一个结合了通用能力和代码能力的新开源模型。它保留了聊天模型的通用对话能力和代码模型的强大编程能力,并具有更好的偏好对齐。DeepSeek-V2.5 还改进了写作和指令遵循能力。", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款代码语言模型,训练于 2T 数据(87% 代码,13% 中英文文本)。支持 16K 上下文窗口与中间填充任务,提供项目级代码补全与片段填充。", "deepseek-coder-v2.description": "DeepSeek Coder V2 是一款开源 MoE 编程模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。", "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款开源 MoE 编程模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。", @@ -396,7 +394,7 @@ "deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版本,支持实时网页搜索,结合 671B 规模能力与更快响应。", "deepseek-r1-online.description": "DeepSeek R1 全量版本,具备 671B 参数与实时网页搜索,提供更强理解与生成能力。", "deepseek-r1.description": "DeepSeek-R1 在强化学习前使用冷启动数据,在数学、编程和推理任务中表现可与 OpenAI-o1 相媲美。", - "deepseek-reasoner.description": "DeepSeek V3.2 Thinking 是一款深度推理模型,在输出前生成思维链条以提升准确性,在顶级竞赛中表现优异,推理能力可媲美 Gemini-3.0-Pro。", + "deepseek-reasoner.description": "DeepSeek V3.2 的推理模式在最终答案之前输出一系列推理过程,以提高准确性。", "deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,适用于成本敏感型处理任务。", "deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 推出的代码专用模型,具备强大代码生成能力。", "deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款拥有 671B 参数的 MoE 模型,在编程与技术能力、上下文理解和长文本处理方面表现突出。", @@ -491,8 +489,7 @@ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具备 32K 上下文能力,适合复杂推理与多轮对话。", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview 是一款用于评估与测试的思考模型预览版。", "ernie-x1.1.description": "ERNIE X1.1是一个用于评估和测试的思维模型预览版。", - "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5 由字节跳动 Seed 团队打造,支持多图编辑与合成,具备更强的主体一致性、精准的指令执行能力、空间逻辑理解、美学表达、海报排版与标志设计,并实现高精度图文渲染。", - "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 由字节跳动 Seed 团队开发,支持文本与图像输入,可根据提示生成高度可控、高质量的图像。", + "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 是字节跳动 Seed 团队推出的图像生成模型,支持文本和图像输入,能够生成高度可控、高质量的图像。它可以根据文本提示生成图像。", "fal-ai/flux-kontext/dev.description": "FLUX.1 模型专注于图像编辑,支持文本与图像输入。", "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] 接受文本与参考图像输入,支持局部精准编辑与复杂全局场景变换。", "fal-ai/flux/krea.description": "Flux Krea [dev] 是一款图像生成模型,偏好更真实自然的美学风格。", @@ -500,8 +497,8 @@ "fal-ai/hunyuan-image/v3.description": "一款强大的原生多模态图像生成模型。", "fal-ai/imagen4/preview.description": "来自 Google 的高质量图像生成模型。", "fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持通过对话生成与编辑图像。", - "fal-ai/qwen-image-edit.description": "Qwen 团队推出的专业图像编辑模型,支持语义与外观编辑、中英文文本精修、风格迁移、旋转等多种功能。", - "fal-ai/qwen-image.description": "Qwen 团队推出的强大图像生成模型,具备出色的中文文本渲染能力与多样化视觉风格。", + "fal-ai/qwen-image-edit.description": "Qwen 团队推出的专业图像编辑模型,支持语义和外观编辑,精准编辑中英文文本,并实现高质量的编辑效果,如风格迁移和物体旋转。", + "fal-ai/qwen-image.description": "Qwen 团队推出的强大图像生成模型,具有令人印象深刻的中文文本渲染能力和多样化的视觉风格。", "flux-1-schnell.description": "来自 Black Forest Labs 的 120 亿参数文本转图像模型,采用潜在对抗扩散蒸馏技术,可在 1-4 步内生成高质量图像。性能媲美闭源模型,采用 Apache-2.0 许可,适用于个人、研究与商业用途。", "flux-dev.description": "FLUX.1 [dev] 是一款开源权重蒸馏模型,仅限非商业用途。保持接近专业图像质量与指令遵循能力,同时运行更高效,资源利用优于同等规模标准模型。", "flux-kontext-max.description": "最先进的上下文图像生成与编辑模型,结合文本与图像输入,实现精准一致的结果。", @@ -532,8 +529,6 @@ "gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash 的一个轻量变体,优化了成本效率与低延迟表现。", "gemini-2.0-flash-lite.description": "Gemini 2.0 Flash 的一个轻量变体,优化了成本效率与低延迟表现。", "gemini-2.0-flash.description": "Gemini 2.0 Flash 提供下一代功能,包括卓越速度、原生工具使用、多模态生成以及 100 万 token 上下文窗口。", - "gemini-2.5-flash-image-preview.description": "Nano Banana 是 Google 最新、最快且最高效的原生多模态模型,支持对话式图像生成与编辑。", - "gemini-2.5-flash-image-preview:image.description": "Nano Banana 是 Google 最新、最快且最高效的原生多模态模型,支持对话式图像生成与编辑。", "gemini-2.5-flash-image.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持对话式图像生成与编辑。", "gemini-2.5-flash-image:image.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持对话式图像生成与编辑。", "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview 是 Google 最小、性价比最高的模型,适用于大规模使用场景。", @@ -547,10 +542,10 @@ "gemini-2.5-pro.description": "Gemini 2.5 Pro 是 Google 的旗舰推理模型,支持长上下文,适用于复杂任务。", "gemini-3-flash-preview.description": "Gemini 3 Flash 是一款以速度为核心的智能模型,融合前沿智能与卓越的搜索能力。", "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的图像生成模型,同时支持多模态对话。", - "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的图像生成模型,同时支持多模态对话。", + "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的图像生成模型,同时支持多模态聊天。", "gemini-3-pro-preview.description": "Gemini 3 Pro 是 Google 最强大的智能体与编程模型,在最先进推理基础上提供更丰富的视觉效果与更深入的交互体验。", "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image(Nano Banana 2)是 Google 最快的原生图像生成模型,支持思考、对话式图像生成和编辑。", - "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image(Nano Banana 2)以 Flash 速度提供 Pro 级图像质量,同时支持多模态对话。", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image(Nano Banana 2)是 Google 速度最快的原生图像生成模型,支持思维辅助、对话式图像生成和编辑。", "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview在Gemini 3 Pro的基础上增强了推理能力,并增加了中等思维水平支持。", "gemini-flash-latest.description": "Latest release of Gemini Flash", "gemini-flash-lite-latest.description": "Latest release of Gemini Flash-Lite", @@ -692,7 +687,6 @@ "gpt-oss:120b.description": "GPT-OSS 120B 是 OpenAI 推出的大型开源语言模型,采用 MXFP4 量化技术,定位为旗舰模型。需多 GPU 或高端工作站环境支持,在复杂推理、代码生成和多语言处理方面表现出色,具备先进的函数调用与工具集成能力。", "gpt-oss:20b.description": "GPT-OSS 20B 是 OpenAI 推出的开源语言模型,采用 MXFP4 量化技术,适用于高端消费级 GPU 或 Apple Silicon Mac。擅长对话生成、编程与推理任务,支持函数调用与工具使用。", "gpt-realtime.description": "通用实时模型,支持实时文本与音频输入/输出,并支持图像输入。", - "grok-2-image-1212.description": "我们最新的图像生成模型可根据提示生成生动逼真的图像,特别适用于营销、社交媒体和娱乐场景。", "grok-2-vision-1212.description": "提升了准确性、指令遵循能力和多语言支持能力。", "grok-3-mini.description": "轻量级模型,在回答前进行思考。适用于不需要深度领域知识的逻辑任务,响应快速且智能,并可访问原始推理轨迹。", "grok-3.description": "旗舰模型,擅长企业级应用,如数据提取、编程和摘要,具备金融、医疗、法律和科学等领域的深度知识。", @@ -1141,7 +1135,11 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking 是一款多模态思维链模型,适用于细致的视觉推理任务。", "qwen3-vl-flash.description": "Qwen3 VL Flash:轻量级、高速推理版本,适用于对延迟敏感或高并发请求。", "qwen3-vl-plus.description": "Qwen VL 是一款具备视觉理解能力的文本生成模型,支持 OCR、摘要与推理,可从商品图片中提取属性或解决图像问题。", + "qwen3.5-122b-a10b.description": "支持文本、图像和视频输入。在仅文本任务中,其性能可与 Qwen3 Max 相媲美,同时效率更高、成本更低。在多模态能力方面,相较于 Qwen3 VL 系列有显著提升。", + "qwen3.5-27b.description": "支持文本、图像和视频输入。在仅文本任务中,其性能可与 Qwen3 Max 相媲美,同时效率更高、成本更低。在多模态能力方面,相较于 Qwen3 VL 系列有显著提升。", + "qwen3.5-35b-a3b.description": "支持文本、图像和视频输入。在仅文本任务中,其性能可与 Qwen3 Max 相媲美,同时效率更高、成本更低。在多模态能力方面,相较于 Qwen3 VL 系列有显著提升。", "qwen3.5-397b-a17b.description": "支持文本、图像和视频输入。在仅文本任务中,其性能可与Qwen3 Max媲美,效率更高且成本更低。在多模态能力方面,相比Qwen3 VL系列有显著提升。", + "qwen3.5-flash.description": "Qwen 系列中速度最快、成本最低的模型,适合简单任务。", "qwen3.5-plus.description": "Qwen3.5 Plus 支持文本、图像和视频输入。在纯文本任务上的性能可与 Qwen3 Max 相媲美,且性能更优、成本更低。其多模态能力相比 Qwen3 VL 系列有显著提升。", "qwen3.5:397b.description": "Qwen3.5 是一款统一的视觉-语言基础模型,采用混合架构(专家混合 + 线性注意力),在 256K 上下文窗口内提供强大的多模态推理、编码和长上下文能力。", "qwen3.description": "Qwen3 是阿里巴巴推出的下一代大语言模型,在多种应用场景中表现出色。", @@ -1151,8 +1149,6 @@ "qwq.description": "QwQ 是 Qwen 系列中的推理模型。相比标准指令微调模型,具备更强的思维与推理能力,显著提升下游复杂任务表现。QwQ-32B 是一款中型推理模型,性能可媲美 DeepSeek-R1 和 o1-mini 等顶级模型。", "qwq_32b.description": "Qwen 系列中的中型推理模型。相比标准指令微调模型,QwQ 的思维与推理能力显著提升下游复杂任务表现。", "r1-1776.description": "R1-1776 是 DeepSeek R1 的后训练版本,旨在提供无审查、无偏见的真实信息。", - "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro 由字节跳动推出,支持文本转视频、图像转视频(首帧或首+末帧)以及与画面同步的音频生成。", - "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite由BytePlus推出,具备网络检索增强生成功能,可结合实时信息,提升复杂提示解析能力和参考一致性,适用于专业视觉创作。", "solar-mini-ja.description": "Solar Mini (Ja) 是 Solar Mini 的日语增强版本,同时保持在英语和韩语中的高效强性能。", "solar-mini.description": "Solar Mini 是一款紧凑型大语言模型,性能超越 GPT-3.5,具备强大的多语言能力,支持英语和韩语,提供高效的小体积解决方案。", "solar-pro.description": "Solar Pro 是 Upstage 推出的高智能大语言模型,专注于单 GPU 上的指令跟随任务,IFEval 得分超过 80。目前支持英语,完整版本计划于 2024 年 11 月发布,届时将扩展语言支持并提升上下文长度。", diff --git a/locales/zh-CN/providers.json b/locales/zh-CN/providers.json index 1c51f2c6e0..f2aabcae99 100644 --- a/locales/zh-CN/providers.json +++ b/locales/zh-CN/providers.json @@ -30,7 +30,6 @@ "internlm.description": "一个专注于大模型研究与工具链的开源组织,提供高效、易用的平台,让前沿模型与算法触手可及。", "jina.description": "Jina AI 成立于 2020 年,是领先的搜索 AI 公司,其搜索技术栈包括向量模型、重排序器与小型语言模型,支持构建高质量的生成式与多模态搜索应用。", "lmstudio.description": "LM Studio 是一款桌面应用,支持在本地开发与实验大语言模型。", - "lobehub.description": "LobeHub 云端使用官方 API 访问 AI 模型,并通过与模型令牌相关的积分来计量使用情况。", "minimax.description": "MiniMax 成立于 2021 年,致力于构建通用 AI,拥有多模态基础模型,包括万亿参数的 MoE 文本模型、语音模型与视觉模型,并推出海螺 AI 等应用。", "mistral.description": "Mistral 提供先进的通用、专业与研究型模型,支持复杂推理、多语言任务与代码生成,具备函数调用能力以实现定制集成。", "modelscope.description": "ModelScope 是阿里云的模型即服务平台,提供丰富的 AI 模型与推理服务。", diff --git a/locales/zh-TW/agent.json b/locales/zh-TW/agent.json new file mode 100644 index 0000000000..00e0a69394 --- /dev/null +++ b/locales/zh-TW/agent.json @@ -0,0 +1,34 @@ +{ + "integration.applicationId": "應用程式 ID / 機器人使用者名稱", + "integration.applicationIdPlaceholder": "例如:1234567890", + "integration.botToken": "機器人 Token / API 金鑰", + "integration.botTokenEncryptedHint": "Token 將被加密並安全存儲。", + "integration.botTokenHowToGet": "如何取得?", + "integration.botTokenPlaceholderExisting": "為了安全起見,Token 已隱藏", + "integration.botTokenPlaceholderNew": "在此貼上您的機器人 Token", + "integration.connectionConfig": "連線設定", + "integration.copied": "已複製到剪貼簿", + "integration.copy": "複製", + "integration.deleteConfirm": "您確定要移除此整合嗎?", + "integration.disabled": "已停用", + "integration.discord.description": "將此助理連接到 Discord 伺服器以進行頻道聊天和直接訊息。", + "integration.documentation": "文件", + "integration.enabled": "已啟用", + "integration.endpointUrl": "互動端點 URL", + "integration.endpointUrlHint": "請複製此 URL 並將其貼到 {{name}} 開發者入口網站中的 「互動端點 URL」 欄位。", + "integration.platforms": "平台", + "integration.publicKey": "公鑰", + "integration.publicKeyPlaceholder": "互動驗證所需", + "integration.removeFailed": "移除整合失敗", + "integration.removeIntegration": "移除整合", + "integration.removed": "整合已移除", + "integration.save": "儲存設定", + "integration.saveFailed": "儲存設定失敗", + "integration.saveFirstWarning": "請先儲存設定", + "integration.saved": "設定已成功儲存", + "integration.testConnection": "測試連線", + "integration.testFailed": "連線測試失敗", + "integration.testSuccess": "連線測試成功", + "integration.updateFailed": "更新狀態失敗", + "integration.validationError": "請填寫應用程式 ID 和 Token" +} diff --git a/locales/zh-TW/chat.json b/locales/zh-TW/chat.json index 7ce8018854..e49c41c947 100644 --- a/locales/zh-TW/chat.json +++ b/locales/zh-TW/chat.json @@ -336,6 +336,7 @@ "supervisor.todoList.allComplete": "所有任務已完成", "supervisor.todoList.title": "任務已完成", "tab.groupProfile": "群組檔案", + "tab.integration": "整合", "tab.profile": "助手檔案", "tab.search": "搜尋", "task.activity.calling": "正在呼叫工具...", diff --git a/locales/zh-TW/common.json b/locales/zh-TW/common.json index 189bbcb8a3..83e3993976 100644 --- a/locales/zh-TW/common.json +++ b/locales/zh-TW/common.json @@ -209,7 +209,6 @@ "delete": "刪除", "document": "使用說明文件", "download": "下載", - "downloadClient": "下載客戶端", "duplicate": "建立副本", "edit": "編輯", "errors.invalidFileFormat": "檔案格式錯誤", @@ -256,6 +255,7 @@ "footer.star.title": "在 GitHub 為我們點亮星標", "footer.title": "喜歡我們的產品?", "fullscreen": "全螢幕模式", + "getDesktopApp": "下載桌面應用程式", "historyRange": "歷史範圍", "home.suggestQuestions": "試試這些範例", "import": "匯入", diff --git a/locales/zh-TW/models.json b/locales/zh-TW/models.json index 4160bb8c30..2f53ea7d40 100644 --- a/locales/zh-TW/models.json +++ b/locales/zh-TW/models.json @@ -77,10 +77,8 @@ "MiniMax-M1.description": "一款內部開發的推理模型,具備 80K 思路鏈與 100 萬輸入,效能媲美全球頂尖模型。", "MiniMax-M2-Stable.description": "專為高效編碼與代理流程設計,具備更高併發能力,適用於商業應用。", "MiniMax-M2.1-Lightning.description": "強大的多語言編程能力,全面升級的編程體驗。更快速、更高效。", - "MiniMax-M2.1-highspeed.description": "強大的多語言編程能力,推理速度更快、更高效。", "MiniMax-M2.1.description": "MiniMax-M2.1 是 MiniMax 推出的旗艦開源大型模型,專注於解決複雜的真實世界任務。其核心優勢在於多語言程式設計能力與作為智能代理執行複雜任務的能力。", "MiniMax-M2.5-Lightning.description": "M2.5 Lightning:相同性能,更快更靈活(約 100 tps)。", - "MiniMax-M2.5-highspeed.description": "與 M2.5 相同的性能,但推理速度顯著提升。", "MiniMax-M2.5.description": "MiniMax-M2.5 是 MiniMax 推出的旗艦開源大型模型,專注於解決複雜的現實世界任務。其核心優勢包括多語言編程能力以及作為代理解決複雜任務的能力。", "MiniMax-M2.description": "專為高效編碼與智能體工作流程打造", "MiniMax-Text-01.description": "MiniMax-01 採用超越傳統 Transformer 的大規模線性注意力機制,擁有 4560 億參數,每次啟用 459 億,支援最多 400 萬字元上下文(為 GPT-4o 的 32 倍,Claude-3.5-Sonnet 的 20 倍),效能頂尖。", @@ -283,9 +281,9 @@ "chatgpt-4o-latest.description": "ChatGPT-4o 是一個實時更新的動態模型,結合了強大的語言理解和生成能力,適用於大規模使用場景,如客戶支持、教育和技術協助。", "claude-2.0.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。", "claude-2.1.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。", - "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的最新一代最快速模型,在多項技能上有所提升,並在多項基準測試中超越前一代旗艦 Claude 3 Opus。", + "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 最快速的次世代模型。與 Claude 3 Haiku 相比,它在多項技能上有所提升,並在許多智能基準測試中超越了之前最大的模型 Claude 3 Opus。", "claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速回應,適用於輕量任務。", - "claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 是 Anthropic 最智慧的模型,也是市場上首款混合推理模型,支援即時回應或延伸思考,並提供細緻的控制能力。", + "claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet 是 Anthropic 最智能的模型,也是市場上首個混合推理模型。它能夠產生近乎即時的回應,或提供用戶可見的逐步推理過程。Sonnet 尤其擅長編程、數據科學、視覺和代理任務。", "claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。", "claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快速且最精簡的模型,設計用於即時回應,具備快速且準確的表現。", "claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。", @@ -293,17 +291,17 @@ "claude-3.5-sonnet.description": "Claude 3.5 Sonnet 擅長編碼、寫作與複雜推理。", "claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet 加強了思考能力,適用於處理複雜推理任務。", "claude-3.7-sonnet.description": "Claude 3.7 Sonnet 是升級版本,具備更長的上下文處理能力與更強的功能。", - "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 迄今最快速且最智慧的 Haiku 模型,兼具閃電般的速度與深度思考能力。", + "claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 最快速且最智能的 Haiku 模型,具備閃電般的速度和延展的推理能力。", "claude-haiku-4.5.description": "Claude Haiku 4.5 是一款快速且高效的模型,適用於各種任務。", "claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一個進階版本,能夠揭示其推理過程。", - "claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新且最強大的模型,專為處理高度複雜任務而設計,表現出色,具備卓越的智慧、流暢度與理解力。", - "claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最強大的模型,專為處理高度複雜任務而打造,擁有卓越的效能、智慧、流暢度與理解能力。", + "claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新且最強大的模型,專為高度複雜的任務設計,表現出色,具備卓越的智能、流暢性和理解力。", + "claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最強大的模型,專為高度複雜的任務設計,表現出色,具備卓越的智能、流暢性和理解力。", "claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗艦模型,結合卓越智慧與可擴展效能,適合需要最高品質回應與推理的複雜任務。", - "claude-opus-4-6.description": "Claude Opus 4.6 是 Anthropic 最智慧的模型,專為建構智能代理與程式開發而設計。", + "claude-opus-4-6.description": "Claude Opus 4.6 是 Anthropic 最智能的模型,專為構建代理和編程而設計。", "claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可產生即時回應或延伸的逐步思考,並顯示其推理過程。", - "claude-sonnet-4-20250514.description": "Claude Sonnet 4 是 Anthropic 迄今最智慧的模型,為 API 使用者提供即時回應或逐步深入思考的能力,並具備細緻的控制選項。", - "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今最智慧的模型。", - "claude-sonnet-4-6.description": "Claude Sonnet 4.6 是 Anthropic 最佳的速度與智能結合體現。", + "claude-sonnet-4-20250514.description": "Claude Sonnet 4 能夠產生近乎即時的回應,或提供用戶可見的逐步思考過程。", + "claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今為止最智能的模型。", + "claude-sonnet-4-6.description": "Claude Sonnet 4.6 是 Anthropic 在速度與智能之間的最佳結合。", "claude-sonnet-4.description": "Claude Sonnet 4 是最新一代模型,在各項任務中表現更為出色。", "codegeex-4.description": "CodeGeeX-4 是一款強大的 AI 程式輔助工具,支援多語言問答與程式碼補全,能有效提升開發者的生產力。", "codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一個多語言程式碼生成模型,支援程式碼補全與生成、程式碼解釋器、網頁搜尋、函式呼叫與倉庫層級的程式碼問答,涵蓋多種軟體開發場景。它是參數數量低於 100 億的頂尖程式碼模型之一。", @@ -373,7 +371,7 @@ "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。", "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 是下一代推理模型,具備更強的複雜推理和連鎖思維能力。", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是一款基於 DeepSeekMoE-27B 的 MoE 視覺語言模型,採用稀疏激活,僅使用 4.5B 活躍參數即可達到強大表現。擅長視覺問答、OCR、文件/表格/圖表理解與視覺對齊。", - "deepseek-chat.description": "DeepSeek V3.2 在推理能力與輸出長度之間取得平衡,適用於日常問答與智能代理任務。公開基準測試達到 GPT-5 水準,並首創將思考過程整合至工具使用中,於開源代理評測中表現領先。", + "deepseek-chat.description": "一款結合通用能力與編程能力的開源新模型。它保留了聊天模型的通用對話能力和編程模型的強大編程能力,並具有更好的偏好對齊。DeepSeek-V2.5 還改進了寫作和指令執行能力。", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款程式語言模型,訓練於 2T token(87% 程式碼,13% 中英文文本),支援 16K 上下文視窗與中間填充任務,提供專案級程式補全與片段填充功能。", "deepseek-coder-v2.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。", "deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。", @@ -396,7 +394,7 @@ "deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版,支援即時網頁搜尋,結合 671B 規模能力與快速回應。", "deepseek-r1-online.description": "DeepSeek R1 全量版擁有 671B 參數與即時網頁搜尋功能,提供更強的理解與生成能力。", "deepseek-r1.description": "DeepSeek-R1 在強化學習前使用冷啟動資料,於數學、程式碼與推理任務中表現可媲美 OpenAI-o1。", - "deepseek-reasoner.description": "DeepSeek V3.2 Thinking 是一款深度推理模型,能在輸出前生成思考鏈以提升準確性,在競賽中表現優異,推理能力媲美 Gemini-3.0-Pro。", + "deepseek-reasoner.description": "DeepSeek V3.2 的推理模式在最終答案之前輸出一個思維鏈,以提高準確性。", "deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,適用於具成本效益的處理任務。", "deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 專注於程式碼生成的模型,具備強大能力。", "deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款擁有 671B 參數的 MoE 模型,在程式設計、技術能力、語境理解與長文本處理方面表現出色。", @@ -491,8 +489,7 @@ "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具備 32K 上下文,適合複雜推理與多輪對話。", "ernie-x1.1-preview.description": "ERNIE X1.1 預覽版是一款思考模型預覽,用於評估與測試。", "ernie-x1.1.description": "ERNIE X1.1 是一個用於評估和測試的思考模型預覽版。", - "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5 由字節跳動 Seed 團隊打造,支援多圖編輯與合成,具備更高的主體一致性、精準的指令執行、空間邏輯理解、美學表現、海報排版與標誌設計,並提供高精度的圖文渲染能力。", - "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 由字節跳動 Seed 團隊開發,支援文字與圖像輸入,實現高度可控且高品質的圖像生成。", + "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 是來自字節跳動 Seed 的圖像生成模型,支持文本和圖像輸入,具備高度可控、高品質的圖像生成能力。它能根據文本提示生成圖像。", "fal-ai/flux-kontext/dev.description": "FLUX.1 模型專注於圖像編輯,支援文字與圖像輸入。", "fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] 接受文字與參考圖像輸入,實現目標區域編輯與複雜場景轉換。", "fal-ai/flux/krea.description": "Flux Krea [dev] 是一款圖像生成模型,偏好更真實自然的美學風格。", @@ -500,8 +497,8 @@ "fal-ai/hunyuan-image/v3.description": "一款強大的原生多模態圖像生成模型。", "fal-ai/imagen4/preview.description": "來自 Google 的高品質圖像生成模型。", "fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快且最高效的原生多模態模型,支援透過對話進行圖像生成與編輯。", - "fal-ai/qwen-image-edit.description": "來自 Qwen 團隊的專業圖像編輯模型,支援語義與外觀編輯、中英文文字精準修改、風格轉換、旋轉等多種功能。", - "fal-ai/qwen-image.description": "來自 Qwen 團隊的強大圖像生成模型,具備優異的中文文字渲染能力與多樣化的視覺風格。", + "fal-ai/qwen-image-edit.description": "來自 Qwen 團隊的專業圖像編輯模型,支持語義和外觀編輯,精確編輯中英文文本,並實現高品質的編輯效果,如風格轉換和物體旋轉。", + "fal-ai/qwen-image.description": "來自 Qwen 團隊的強大圖像生成模型,具備令人印象深刻的中文文本渲染能力和多樣化的視覺風格。", "flux-1-schnell.description": "來自黑森林實驗室的 12B 參數文字轉圖像模型,透過潛在對抗擴散蒸餾技術,在 1 至 4 步內生成高品質圖像。其表現媲美封閉式替代方案,並以 Apache-2.0 授權釋出,供個人、研究與商業用途。", "flux-dev.description": "FLUX.1 [dev] 是一款開放權重的蒸餾模型,僅限非商業用途。它保有接近專業水準的圖像品質與指令遵循能力,同時運行更高效,資源使用優於同等大小的標準模型。", "flux-kontext-max.description": "最先進的語境圖像生成與編輯技術,結合文字與圖像輸入,實現精準且一致的結果。", @@ -532,8 +529,6 @@ "gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash 的一個變體,針對成本效益與低延遲進行最佳化。", "gemini-2.0-flash-lite.description": "Gemini 2.0 Flash 的一個變體,針對成本效益與低延遲進行最佳化。", "gemini-2.0-flash.description": "Gemini 2.0 Flash 提供次世代功能,包括極速處理、原生工具使用、多模態生成,以及 100 萬 token 的上下文視窗。", - "gemini-2.5-flash-image-preview.description": "Nano Banana 是 Google 最新、最快速且最高效的原生多模態模型,支援對話式圖像生成與編輯。", - "gemini-2.5-flash-image-preview:image.description": "Nano Banana 是 Google 最新、最快速且最高效的原生多模態模型,支援對話式圖像生成與編輯。", "gemini-2.5-flash-image.description": "Nano Banana 是 Google 最新、最快且最有效率的原生多模態模型,支援對話式圖像生成與編輯。", "gemini-2.5-flash-image:image.description": "Nano Banana 是 Google 最新、最快且最有效率的原生多模態模型,支援對話式圖像生成與編輯。", "gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview 是 Google 體積最小、性價比最高的模型,專為大規模應用而設計。", @@ -547,10 +542,10 @@ "gemini-2.5-pro.description": "Gemini 2.5 Pro 是 Google 的旗艦推理模型,支援長上下文,適用於處理複雜任務。", "gemini-3-flash-preview.description": "Gemini 3 Flash 是一款以速度為核心的智慧模型,結合尖端智能與卓越的搜尋基礎能力。", "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) 是 Google 的影像生成模型,亦支持多模態對話。", - "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的圖像生成模型,同時支援多模態對話功能。", + "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的圖像生成模型,並支持多模態聊天。", "gemini-3-pro-preview.description": "Gemini 3 Pro 是 Google 最強大的智能代理與情境編碼模型,具備頂尖推理能力、豐富視覺表現與深度互動。", "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) 是 Google 最快的原生影像生成模型,支持思考、對話式影像生成與編輯。", - "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image(Nano Banana 2)以閃電速度提供專業級圖像質量,並支持多模態聊天。", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image(Nano Banana 2)是 Google 最快速的原生圖像生成模型,支持思維過程、對話式圖像生成和編輯。", "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview 在 Gemini 3 Pro 的基礎上增強了推理能力,並新增了中等思考層級支持。", "gemini-flash-latest.description": "Gemini Flash 最新版本", "gemini-flash-lite-latest.description": "Gemini Flash-Lite 最新版本", @@ -692,7 +687,6 @@ "gpt-oss:120b.description": "GPT-OSS 120B 是 OpenAI 的大型開源 LLM,採用 MXFP4 量化,定位為旗艦模型。需多 GPU 或高階工作站環境,於複雜推理、程式碼生成與多語言處理方面表現優異,支援進階函式呼叫與工具整合。", "gpt-oss:20b.description": "GPT-OSS 20B 是 OpenAI 的開源 LLM,採用 MXFP4 量化,適用於高階消費級 GPU 或 Apple Silicon Mac。於對話生成、編碼與推理任務中表現良好,支援函式呼叫與工具使用。", "gpt-realtime.description": "通用即時模型,支援即時文字與音訊輸入/輸出,並支援圖片輸入。", - "grok-2-image-1212.description": "我們最新的圖像生成模型可根據提示生成生動、寫實的圖像,特別適用於行銷、社群媒體與娛樂場景。", "grok-2-vision-1212.description": "提升了準確性、指令遵循能力與多語言支持。", "grok-3-mini.description": "一款在回應前先思考的輕量模型。適合不需深度領域知識的邏輯任務,具備快速反應與原始推理軌跡存取能力。", "grok-3.description": "旗艦模型,擅長企業應用如資料擷取、程式編寫與摘要,具備金融、醫療、法律與科學等領域的深度知識。", @@ -1141,7 +1135,11 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking 是一款具備思維鏈能力的多模態模型,適用於細緻的視覺推理。", "qwen3-vl-flash.description": "Qwen3 VL Flash:輕量高速推理版本,適用於對延遲敏感或高頻請求場景。", "qwen3-vl-plus.description": "Qwen VL 是一款具備視覺理解能力的文字生成模型,能進行文字辨識(OCR)、摘要與推理,例如從商品圖片中提取屬性或解決圖像問題。", + "qwen3.5-122b-a10b.description": "支持文本、圖像和視頻輸入。對於僅文本任務,其性能可與 Qwen3 Max 相媲美,並提供更高的效率和更低的成本。在多模態能力方面,相較於 Qwen3 VL 系列有顯著提升。", + "qwen3.5-27b.description": "支持文本、圖像和視頻輸入。對於僅文本任務,其性能可與 Qwen3 Max 相媲美,並提供更高的效率和更低的成本。在多模態能力方面,相較於 Qwen3 VL 系列有顯著提升。", + "qwen3.5-35b-a3b.description": "支持文本、圖像和視頻輸入。對於僅文本任務,其性能可與 Qwen3 Max 相媲美,並提供更高的效率和更低的成本。在多模態能力方面,相較於 Qwen3 VL 系列有顯著提升。", "qwen3.5-397b-a17b.description": "支持文本、圖像和視頻輸入。對於僅文本任務,其性能可與 Qwen3 Max 媲美,效率更高且成本更低。在多模態能力方面,與 Qwen3 VL 系列相比有顯著提升。", + "qwen3.5-flash.description": "最快且成本最低的 Qwen 模型,適合簡單任務。", "qwen3.5-plus.description": "Qwen3.5 Plus 支持文本、影像和視頻輸入。在純文本任務上的性能可媲美 Qwen3 Max,並具備更佳性能及更低成本。其多模態能力相比 Qwen3 VL 系列有顯著提升。", "qwen3.5:397b.description": "Qwen3.5 是一款統一的視覺-語言基礎模型,採用混合架構(專家混合 + 線性注意力),提供強大的多模態推理、編程及長上下文能力,支持 256K 上下文窗口。", "qwen3.description": "Qwen3 是阿里巴巴新一代大型語言模型,在多種應用場景中展現出強大效能。", @@ -1151,8 +1149,6 @@ "qwq.description": "QwQ 是 Qwen 系列中的推理模型。相較於標準指令微調模型,它具備更強的思考與推理能力,顯著提升下游任務表現,特別是在處理困難問題時。QwQ-32B 是中型推理模型,表現可媲美 DeepSeek-R1 與 o1-mini 等頂尖模型。", "qwq_32b.description": "Qwen 系列中的中型推理模型。相較於標準指令微調模型,QwQ 的思考與推理能力顯著提升下游任務表現,特別是在處理困難問題時。", "r1-1776.description": "R1-1776 是 DeepSeek R1 的後訓練版本,旨在提供未經審查、無偏見的事實資訊。", - "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro 由字節跳動開發,支援文字轉影片、圖像轉影片(首幀或首+尾幀)與視覺同步的音訊生成。", - "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite 由 BytePlus 提供,具備網絡檢索增強生成功能,支持實時信息,增強了複雜提示解讀和專業視覺創作的參考一致性。", "solar-mini-ja.description": "Solar Mini (Ja) 是 Solar Mini 的日文強化版本,同時維持在英文與韓文上的高效能表現。", "solar-mini.description": "Solar Mini 是一款緊湊型大型語言模型,效能超越 GPT-3.5,具備強大的多語言能力,支援英文與韓文,提供高效能且佔用資源小的解決方案。", "solar-pro.description": "Solar Pro 是 Upstage 推出的高智慧大型語言模型,專注於單 GPU 上的指令遵循任務,IFEval 分數超過 80。目前支援英文,完整版本預計於 2024 年 11 月推出,將擴展語言支援與上下文長度。", diff --git a/locales/zh-TW/providers.json b/locales/zh-TW/providers.json index cdd59f6a3e..98f843c383 100644 --- a/locales/zh-TW/providers.json +++ b/locales/zh-TW/providers.json @@ -30,7 +30,6 @@ "internlm.description": "一個專注於大型模型研究與工具的開源組織,提供高效、易用的平台,讓尖端模型與演算法更易於取得。", "jina.description": "Jina AI 成立於 2020 年,是領先的搜尋 AI 公司。其搜尋技術堆疊包含向量模型、重排序器與小型語言模型,打造可靠且高品質的生成式與多模態搜尋應用。", "lmstudio.description": "LM Studio 是一款桌面應用程式,可在本機開發與實驗大型語言模型。", - "lobehub.description": "LobeHub Cloud 使用官方 API 存取 AI 模型,並以與模型代幣相關的點數來計算使用量。", "minimax.description": "MiniMax 成立於 2021 年,致力於打造通用 AI,擁有多模態基礎模型,包括兆級參數的 MoE 文本模型、語音模型與視覺模型,並推出如海螺 AI 等應用。", "mistral.description": "Mistral 提供先進的通用、專業與研究模型,支援複雜推理、多語言任務與程式碼生成,並支援函式呼叫以實現自訂整合。", "modelscope.description": "ModelScope 是阿里雲的模型即服務平台,提供多樣化的 AI 模型與推理服務。", diff --git a/src/features/PluginTag/index.tsx b/src/features/PluginTag/index.tsx index 098c56f9b3..e1cfd65c79 100644 --- a/src/features/PluginTag/index.tsx +++ b/src/features/PluginTag/index.tsx @@ -50,13 +50,11 @@ const PluginTag = memo(({ plugins }) => { return ( -
- - {} - {pluginHelpers.getPluginTitle(displayPlugin) || plugins[0]} - {count > 1 &&
({plugins.length - 1}+)
} -
-
+ + {} + {pluginHelpers.getPluginTitle(displayPlugin) || plugins[0]} + {count > 1 &&
({plugins.length - 1}+)
} +
); }); diff --git a/src/features/User/UserPanel/useMenu.tsx b/src/features/User/UserPanel/useMenu.tsx index 70b34d5e35..be55afb853 100644 --- a/src/features/User/UserPanel/useMenu.tsx +++ b/src/features/User/UserPanel/useMenu.tsx @@ -78,13 +78,13 @@ export const useMenu = () => { }, ]; - const downloadClient: MenuProps['items'] = [ + const getDesktopApp: MenuProps['items'] = [ { icon: , - key: 'download-client', + key: 'get-desktop-app', label: ( - {t('downloadClient')} + {t('getDesktopApp')} ), }, @@ -129,7 +129,7 @@ export const useMenu = () => { ...(isLogin ? settings : []), ...businessMenuItems, - ...(!isDesktop ? downloadClient : []), + ...(!isDesktop ? getDesktopApp : []), ...data, ...(!hideDocs ? helps : []), ].filter(Boolean) as MenuProps['items']; diff --git a/src/locales/default/common.ts b/src/locales/default/common.ts index 76c2c90d9a..ea2b525fc1 100644 --- a/src/locales/default/common.ts +++ b/src/locales/default/common.ts @@ -277,7 +277,7 @@ export default { 'delete': 'Delete', 'document': 'User Manual', 'download': 'Download', - 'downloadClient': 'Download Client', + 'getDesktopApp': 'Get Desktop App', 'duplicate': 'Duplicate', 'edit': 'Edit', 'errors.invalidFileFormat': 'Invalid file format', diff --git a/src/routes/(main)/agent/features/Conversation/Header/Tags/KnowledgeTag.tsx b/src/routes/(main)/agent/features/Conversation/Header/Tags/KnowledgeTag.tsx index c39109c15d..e7fcd979e6 100644 --- a/src/routes/(main)/agent/features/Conversation/Header/Tags/KnowledgeTag.tsx +++ b/src/routes/(main)/agent/features/Conversation/Header/Tags/KnowledgeTag.tsx @@ -26,15 +26,13 @@ const PluginTag = memo(({ data }) => { return ( -
- - {} -
- {data[0].name} -
- {count > 1 &&
({data.length - 1}+)
} -
-
+ + {} +
+ {data[0].name} +
+ {count > 1 &&
({data.length - 1}+)
} +
); }); diff --git a/src/routes/(mobile)/me/(home)/features/useCategory.tsx b/src/routes/(mobile)/me/(home)/features/useCategory.tsx index 8097cd1e7c..624d18b2eb 100644 --- a/src/routes/(mobile)/me/(home)/features/useCategory.tsx +++ b/src/routes/(mobile)/me/(home)/features/useCategory.tsx @@ -54,11 +54,11 @@ export const useCategory = (onOpenChangelogModal: () => void) => { }, ]; - const downloadClient: CellProps[] = [ + const getDesktopApp: CellProps[] = [ { icon: Download, - key: 'download-client', - label: t('downloadClient'), + key: 'get-desktop-app', + label: t('getDesktopApp'), onClick: () => window.open(downloadUrl, '__blank'), }, { @@ -103,7 +103,7 @@ export const useCategory = (onOpenChangelogModal: () => void) => { /* ↓ cloud slot ↓ */ /* ↑ cloud slot ↑ */ - ...downloadClient, + ...getDesktopApp, ...(!hideDocs ? helps : []), ].filter(Boolean) as CellProps[];