💄 style: fix cursor pointer on dropdown tags and rename downloadClient to getDesktopApp (#12582)

This commit is contained in:
YuTengjing
2026-03-02 17:04:52 +08:00
committed by GitHub
parent 46c9cb3b03
commit c8d2f28bf5
91 changed files with 939 additions and 473 deletions

34
locales/nl-NL/agent.json Normal file
View File

@@ -0,0 +1,34 @@
{
"integration.applicationId": "Applicatie-ID / Bot Gebruikersnaam",
"integration.applicationIdPlaceholder": "bijv. 1234567890",
"integration.botToken": "Bot Token / API Sleutel",
"integration.botTokenEncryptedHint": "Token wordt versleuteld en veilig opgeslagen.",
"integration.botTokenHowToGet": "Hoe te verkrijgen?",
"integration.botTokenPlaceholderExisting": "Token is verborgen voor beveiliging",
"integration.botTokenPlaceholderNew": "Plak hier je bot token",
"integration.connectionConfig": "Verbindingsconfiguratie",
"integration.copied": "Gekopieerd naar klembord",
"integration.copy": "Kopiëren",
"integration.deleteConfirm": "Weet je zeker dat je deze integratie wilt verwijderen?",
"integration.disabled": "Uitgeschakeld",
"integration.discord.description": "Verbind deze assistent met een Discord-server voor kanaalchat en directe berichten.",
"integration.documentation": "Documentatie",
"integration.enabled": "Ingeschakeld",
"integration.endpointUrl": "Interacties Eindpunt-URL",
"integration.endpointUrlHint": "Kopieer deze URL en plak deze in het veld <bold>\"Interacties Eindpunt-URL\"</bold> in de {{name}} Developer Portal.",
"integration.platforms": "Platformen",
"integration.publicKey": "Publieke Sleutel",
"integration.publicKeyPlaceholder": "Vereist voor interactieverificatie",
"integration.removeFailed": "Verwijderen van integratie mislukt",
"integration.removeIntegration": "Verwijder Integratie",
"integration.removed": "Integratie verwijderd",
"integration.save": "Configuratie Opslaan",
"integration.saveFailed": "Opslaan van configuratie mislukt",
"integration.saveFirstWarning": "Sla eerst de configuratie op",
"integration.saved": "Configuratie succesvol opgeslagen",
"integration.testConnection": "Verbinding Testen",
"integration.testFailed": "Verbindingstest mislukt",
"integration.testSuccess": "Verbindingstest geslaagd",
"integration.updateFailed": "Bijwerken van status mislukt",
"integration.validationError": "Vul Applicatie-ID en Token in"
}

View File

@@ -336,6 +336,7 @@
"supervisor.todoList.allComplete": "Alle taken voltooid",
"supervisor.todoList.title": "Voltooide taken",
"tab.groupProfile": "Groepsprofiel",
"tab.integration": "Integratie",
"tab.profile": "Agentprofiel",
"tab.search": "Zoeken",
"task.activity.calling": "Skill wordt aangeroepen...",

View File

@@ -209,7 +209,6 @@
"delete": "Verwijderen",
"document": "Gebruikershandleiding",
"download": "Downloaden",
"downloadClient": "Client downloaden",
"duplicate": "Dupliceren",
"edit": "Bewerken",
"errors.invalidFileFormat": "Ongeldig bestandsformaat",
@@ -256,6 +255,7 @@
"footer.star.title": "Geef ons een ster op GitHub",
"footer.title": "Tevreden over ons product?",
"fullscreen": "Volledig scherm",
"getDesktopApp": "Download Desktop-app",
"historyRange": "Geschiedenisbereik",
"home.suggestQuestions": "Probeer deze voorbeelden",
"import": "Importeren",

View File

@@ -77,10 +77,8 @@
"MiniMax-M1.description": "Een nieuw intern redeneermodel met 80K chain-of-thought en 1M input, met prestaties vergelijkbaar met toonaangevende wereldwijde modellen.",
"MiniMax-M2-Stable.description": "Ontworpen voor efficiënte codeer- en agentworkflows, met hogere gelijktijdigheid voor commercieel gebruik.",
"MiniMax-M2.1-Lightning.description": "Krachtige meertalige programmeermogelijkheden, een volledig vernieuwde programmeerervaring. Sneller en efficiënter.",
"MiniMax-M2.1-highspeed.description": "Krachtige meertalige programmeermogelijkheden met snellere en efficiëntere inferentie.",
"MiniMax-M2.1.description": "MiniMax-M2.1 is het vlaggenschip open-source grote model van MiniMax, gericht op het oplossen van complexe, realistische taken. De kernkwaliteiten zijn meertalige programmeermogelijkheden en het vermogen om complexe taken als een Agent op te lossen.",
"MiniMax-M2.5-Lightning.description": "M2.5 Lightning: Zelfde prestaties, sneller en wendbaarder (ongeveer 100 tps).",
"MiniMax-M2.5-highspeed.description": "Zelfde prestaties als M2.5 met aanzienlijk snellere inferentie.",
"MiniMax-M2.5.description": "MiniMax-M2.5 is een vlaggenschip open-source groot model van MiniMax, gericht op het oplossen van complexe real-world taken. De kernsterktes zijn meertalige programmeermogelijkheden en de capaciteit om complexe taken als een Agent op te lossen.",
"MiniMax-M2.description": "Speciaal ontwikkeld voor efficiënt coderen en agent-workflows.",
"MiniMax-Text-01.description": "MiniMax-01 introduceert grootschalige lineaire aandacht voorbij klassieke Transformers, met 456B parameters en 45,9B geactiveerd per pass. Het levert topprestaties en ondersteunt tot 4M tokens context (32× GPT-4o, 20× Claude-3.5-Sonnet).",
@@ -283,9 +281,9 @@
"chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in real-time wordt bijgewerkt. Het combineert sterke taalbegrip- en generatiecapaciteiten voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
"claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
"claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste next-gen model van Anthropic, met verbeterde vaardigheden en betere prestaties dan de vorige topversie Claude 3 Opus op veel benchmarks.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic's snelste next-gen model. In vergelijking met Claude 3 Haiku verbetert het op verschillende vaardigheden en overtreft het het vorige grootste model Claude 3 Opus op veel intelligentie benchmarks.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku levert snelle reacties voor lichte taken.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is het intelligentste model van Anthropic en het eerste hybride redeneermodel op de markt, met ondersteuning voor vrijwel directe reacties of uitgebreide denkprocessen met nauwkeurige controle.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is Anthropic's meest intelligente model en het eerste hybride redeneermodel op de markt. Het kan bijna onmiddellijke reacties geven of uitgebreide stapsgewijze redeneringen produceren die gebruikers kunnen volgen. Sonnet is bijzonder sterk in coderen, datawetenschap, visuele taken en agenttaken.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
"claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
@@ -293,17 +291,17 @@
"claude-3.5-sonnet.description": "Claude 3.5 Sonnet blinkt uit in coderen, schrijven en complex redeneren.",
"claude-3.7-sonnet-thought.description": "Claude 3.7 Sonnet met uitgebreid denkvermogen voor complexe redeneertaken.",
"claude-3.7-sonnet.description": "Claude 3.7 Sonnet is een verbeterde versie met uitgebreidere context en mogelijkheden.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en intelligentste Haiku-model van Anthropic, met bliksemsnelle reacties en diepgaand denkvermogen.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic's snelste en slimste Haiku-model, met bliksemsnelle snelheid en uitgebreide redenering.",
"claude-haiku-4.5.description": "Claude Haiku 4.5 is een snel en efficiënt model voor diverse taken.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest geavanceerde model van Anthropic voor uiterst complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
"claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor uiterst complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic's nieuwste en meest capabele model voor zeer complexe taken, uitblinkend in prestaties, intelligentie, vloeiendheid en begrip.",
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic's krachtigste model voor zeer complexe taken, uitblinkend in prestaties, intelligentie, vloeiendheid en begrip.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
"claude-opus-4-6.description": "Claude Opus 4.6 is het intelligentste model van Anthropic voor het bouwen van agents en programmeren.",
"claude-opus-4-6.description": "Claude Opus 4.6 is Anthropic's meest intelligente model voor het bouwen van agents en coderen.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 is tot nu toe het intelligentste model van Anthropic, met vrijwel directe reacties of stapsgewijze denkprocessen en nauwkeurige controle voor API-gebruikers.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het intelligentste model van Anthropic.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 is de beste combinatie van snelheid en intelligentie van Anthropic.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan bijna onmiddellijke reacties geven of uitgebreide stapsgewijze redeneringen produceren met een zichtbaar proces.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic's meest intelligente model tot nu toe.",
"claude-sonnet-4-6.description": "Claude Sonnet 4.6 is Anthropic's beste combinatie van snelheid en intelligentie.",
"claude-sonnet-4.description": "Claude Sonnet 4 is de nieuwste generatie met verbeterde prestaties op alle taken.",
"codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenarios en is een topmodel onder de 10 miljard parameters.",
@@ -373,7 +371,7 @@
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 is een next-gen redeneermodel met sterkere complexe redeneer- en keten-van-denken-capaciteiten.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is een MoE vision-language model gebaseerd op DeepSeekMoE-27B met sparse activatie, dat sterke prestaties levert met slechts 4,5B actieve parameters. Het blinkt uit in visuele QA, OCR, document-/tabel-/grafiekbegrip en visuele verankering.",
"deepseek-chat.description": "DeepSeek V3.2 biedt een balans tussen redeneervermogen en outputlengte voor dagelijkse vraag-en-antwoord- en agenttaken. Publieke benchmarks bereiken GPT-5-niveau, en het is het eerste model dat denken integreert in het gebruik van tools, wat leidt tot toonaangevende open-source agentbeoordelingen.",
"deepseek-chat.description": "Een nieuw open-source model dat algemene en codevaardigheden combineert. Het behoudt de algemene dialoog van het chatmodel en de sterke codeerprestaties van het coderingsmodel, met een betere voorkeurafstemming. DeepSeek-V2.5 verbetert ook schrijven en het volgen van instructies.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is een codeertaalmodel getraind op 2 biljoen tokens (87% code, 13% Chinees/Engels tekst). Het introduceert een contextvenster van 16K en 'fill-in-the-middle'-taken, wat projectniveau codeaanvulling en fragmentinvoeging mogelijk maakt.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
@@ -396,7 +394,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 snelle volledige versie met realtime webzoekfunctie, combineert 671B-capaciteit met snellere reacties.",
"deepseek-r1-online.description": "DeepSeek R1 volledige versie met 671B parameters en realtime webzoekfunctie, biedt sterkere begrip- en generatiecapaciteiten.",
"deepseek-r1.description": "DeepSeek-R1 gebruikt cold-start data vóór versterkingsleren en presteert vergelijkbaar met OpenAI-o1 op wiskunde, programmeren en redenering.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking is een geavanceerd redeneermodel dat eerst een denkproces genereert voor hogere nauwkeurigheid, met topprestaties in competities en redeneervermogen vergelijkbaar met Gemini-3.0-Pro.",
"deepseek-reasoner.description": "DeepSeek V3.2 denkmodus geeft een keten van gedachten voordat het eindantwoord wordt gegeven om de nauwkeurigheid te verbeteren.",
"deepseek-v2.description": "DeepSeek V2 is een efficiënt MoE-model voor kosteneffectieve verwerking.",
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeeks codegerichte model met sterke codegeneratie.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is een MoE-model met 671B parameters en uitmuntende prestaties in programmeren, technische vaardigheden, contextbegrip en verwerking van lange teksten.",
@@ -491,8 +489,7 @@
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is een snel denkend model met 32K context voor complexe redenatie en meerstapsgesprekken.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is een preview van een denkmodel voor evaluatie en testen.",
"ernie-x1.1.description": "ERNIE X1.1 is een preview van een denkmodel voor evaluatie en testen.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, ontwikkeld door het Seed-team van ByteDance, ondersteunt bewerking en compositie van meerdere afbeeldingen. Het biedt verbeterde onderwerpconsistentie, nauwkeurige opvolging van instructies, ruimtelijk inzicht, esthetische expressie, posterlay-out en logodesign met zeer nauwkeurige tekst-beeldweergave.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, ontwikkeld door ByteDance Seed, ondersteunt tekst- en afbeeldingsinvoer voor zeer controleerbare en hoogwaardige beeldgeneratie op basis van prompts.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is een beeldgeneratiemodel van ByteDance Seed, dat tekst- en beeldinvoer ondersteunt met zeer controleerbare, hoogwaardige beeldgeneratie. Het genereert beelden op basis van tekstprompts.",
"fal-ai/flux-kontext/dev.description": "FLUX.1-model gericht op beeldbewerking, met ondersteuning voor tekst- en afbeeldingsinvoer.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepteert tekst en referentieafbeeldingen als invoer, waardoor gerichte lokale bewerkingen en complexe wereldwijde scèneaanpassingen mogelijk zijn.",
"fal-ai/flux/krea.description": "Flux Krea [dev] is een afbeeldingsgeneratiemodel met een esthetische voorkeur voor realistische, natuurlijke beelden.",
@@ -500,8 +497,8 @@
"fal-ai/hunyuan-image/v3.description": "Een krachtig, native multimodaal afbeeldingsgeneratiemodel.",
"fal-ai/imagen4/preview.description": "Hoogwaardig afbeeldingsgeneratiemodel van Google.",
"fal-ai/nano-banana.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee beeldgeneratie en -bewerking via conversatie mogelijk is.",
"fal-ai/qwen-image-edit.description": "Een professioneel afbeeldingsbewerkingsmodel van het Qwen-team, met ondersteuning voor semantische en uiterlijke bewerkingen, nauwkeurige tekstbewerking in het Chinees/Engels, stijltransformatie, rotatie en meer.",
"fal-ai/qwen-image.description": "Een krachtig beeldgeneratiemodel van het Qwen-team met sterke Chinese tekstrendering en diverse visuele stijlen.",
"fal-ai/qwen-image-edit.description": "Een professioneel beeldbewerkingsmodel van het Qwen-team dat semantische en uiterlijke bewerkingen ondersteunt, nauwkeurig Chinese en Engelse tekst bewerkt, en hoogwaardige bewerkingen mogelijk maakt zoals stijltransfer en objectrotatie.",
"fal-ai/qwen-image.description": "Een krachtig beeldgeneratiemodel van het Qwen-team met indrukwekkende Chinese tekstweergave en diverse visuele stijlen.",
"flux-1-schnell.description": "Een tekst-naar-beeldmodel met 12 miljard parameters van Black Forest Labs, dat gebruikmaakt van latente adversariële diffusiedistillatie om hoogwaardige beelden te genereren in 14 stappen. Het evenaart gesloten alternatieven en is uitgebracht onder de Apache-2.0-licentie voor persoonlijk, onderzoeks- en commercieel gebruik.",
"flux-dev.description": "FLUX.1 [dev] is een open-gewichten gedistilleerd model voor niet-commercieel gebruik. Het behoudt bijna professionele beeldkwaliteit en instructieopvolging, terwijl het efficiënter werkt en middelen beter benut dan standaardmodellen van vergelijkbare grootte.",
"flux-kontext-max.description": "State-of-the-art contextuele beeldgeneratie en -bewerking, waarbij tekst en afbeeldingen worden gecombineerd voor nauwkeurige, samenhangende resultaten.",
@@ -532,8 +529,6 @@
"gemini-2.0-flash-lite-001.description": "Een variant van Gemini 2.0 Flash geoptimaliseerd voor kostenefficiëntie en lage latentie.",
"gemini-2.0-flash-lite.description": "Een variant van Gemini 2.0 Flash geoptimaliseerd voor kostenefficiëntie en lage latentie.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash biedt functies van de volgende generatie, waaronder uitzonderlijke snelheid, native toolgebruik, multimodale generatie en een contextvenster van 1 miljoen tokens.",
"gemini-2.5-flash-image-preview.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, dat conversatiegestuurde beeldgeneratie en -bewerking mogelijk maakt.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana is Google's nieuwste, snelste en meest efficiënte native multimodale model, waarmee conversatiegerichte beeldgeneratie en -bewerking mogelijk is.",
"gemini-2.5-flash-image.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee conversatiegestuurde beeldgeneratie en -bewerking mogelijk is.",
"gemini-2.5-flash-image:image.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee conversatiegestuurde beeldgeneratie en -bewerking mogelijk is.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview is het kleinste en meest kostenefficiënte model van Google, ontworpen voor grootschalig gebruik.",
@@ -550,7 +545,7 @@
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's beeldgeneratiemodel en ondersteunt ook multimodale chat.",
"gemini-3-pro-preview.description": "Gemini 3 Pro is het krachtigste agent- en vibe-codingmodel van Google, met rijkere visuele output en diepere interactie bovenop geavanceerde redeneercapaciteiten.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) is het snelste native beeldgeneratiemodel van Google met denksupport, conversatiebeeldgeneratie en bewerking.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) levert Pro-niveau beeldkwaliteit met Flash-snelheid en ondersteuning voor multimodale chat.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) is Google's snelste native beeldgeneratiemodel met denkondersteuning, conversatiebeeldgeneratie en bewerking.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview verbetert Gemini 3 Pro met verbeterde redeneercapaciteiten en voegt ondersteuning toe voor een gemiddeld denkniveau.",
"gemini-flash-latest.description": "Nieuwste versie van Gemini Flash.",
"gemini-flash-lite-latest.description": "Nieuwste versie van Gemini Flash-Lite.",
@@ -692,7 +687,6 @@
"gpt-oss:120b.description": "GPT-OSS 120B is OpenAIs grote open-source LLM met MXFP4-kwantisatie en gepositioneerd als vlaggenschipmodel. Het vereist multi-GPU- of high-end werkstationomgevingen en levert uitstekende prestaties in complexe redenering, codegeneratie en meertalige verwerking, met geavanceerde functieaanroepen en toolintegratie.",
"gpt-oss:20b.description": "GPT-OSS 20B is een open-source LLM van OpenAI met MXFP4-kwantisatie, geschikt voor high-end consument-GPUs of Apple Silicon Macs. Het presteert goed in dialooggeneratie, programmeren en redeneertaken, en ondersteunt functieaanroepen en toolgebruik.",
"gpt-realtime.description": "Een algemeen realtime model dat realtime tekst- en audio-invoer/-uitvoer ondersteunt, plus afbeeldingsinvoer.",
"grok-2-image-1212.description": "Ons nieuwste afbeeldingsgeneratiemodel creëert levendige, realistische beelden op basis van prompts en blinkt uit in marketing-, sociale media- en entertainmenttoepassingen.",
"grok-2-vision-1212.description": "Verbeterde nauwkeurigheid, instructieopvolging en meertalige mogelijkheden.",
"grok-3-mini.description": "Een lichtgewicht model dat eerst nadenkt voordat het antwoordt. Snel en slim voor logische taken die geen diepgaande domeinkennis vereisen, met toegang tot ruwe redeneertracering.",
"grok-3.description": "Een vlaggenschipmodel dat uitblinkt in zakelijke toepassingen zoals gegevensextractie, programmeren en samenvatten, met diepgaande domeinkennis in financiën, gezondheidszorg, recht en wetenschap.",
@@ -1141,7 +1135,11 @@
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking is een multimodaal keten-van-gedachten model voor gedetailleerde visuele redenering.",
"qwen3-vl-flash.description": "Qwen3 VL Flash: lichtgewicht, snelle redeneerversie voor latency-gevoelige of grootschalige verzoeken.",
"qwen3-vl-plus.description": "Qwen VL is een tekstgeneratiemodel met visueel begrip. Het kan OCR uitvoeren en ook samenvatten en redeneren, zoals het extraheren van kenmerken uit productfotos of het oplossen van problemen op basis van afbeeldingen.",
"qwen3.5-122b-a10b.description": "Ondersteunt tekst-, beeld- en video-invoer. Voor alleen teksttaken is de prestatie vergelijkbaar met Qwen3 Max, met hogere efficiëntie en lagere kosten. In multimodale capaciteiten biedt het aanzienlijke verbeteringen ten opzichte van de Qwen3 VL-serie.",
"qwen3.5-27b.description": "Ondersteunt tekst-, beeld- en video-invoer. Voor alleen teksttaken is de prestatie vergelijkbaar met Qwen3 Max, met hogere efficiëntie en lagere kosten. In multimodale capaciteiten biedt het aanzienlijke verbeteringen ten opzichte van de Qwen3 VL-serie.",
"qwen3.5-35b-a3b.description": "Ondersteunt tekst-, beeld- en video-invoer. Voor alleen teksttaken is de prestatie vergelijkbaar met Qwen3 Max, met hogere efficiëntie en lagere kosten. In multimodale capaciteiten biedt het aanzienlijke verbeteringen ten opzichte van de Qwen3 VL-serie.",
"qwen3.5-397b-a17b.description": "Ondersteunt tekst-, beeld- en video-invoer. Voor alleen teksttaken is de prestatie vergelijkbaar met Qwen3 Max, met hogere efficiëntie en lagere kosten. In multimodale capaciteiten levert het significante verbeteringen ten opzichte van de Qwen3 VL-serie.",
"qwen3.5-flash.description": "Snelste en goedkoopste Qwen-model, ideaal voor eenvoudige taken.",
"qwen3.5-plus.description": "Qwen3.5 Plus ondersteunt tekst-, beeld- en video-invoer. De prestaties op pure teksttaken zijn vergelijkbaar met Qwen3 Max, met betere prestaties en lagere kosten. De multimodale capaciteiten zijn aanzienlijk verbeterd in vergelijking met de Qwen3 VL-serie.",
"qwen3.5:397b.description": "Qwen3.5 is een verenigd visie-taal funderingsmodel met een hybride architectuur (Mixture-of-Experts + lineaire aandacht), dat sterke multimodale redenering, codering en lange-contextcapaciteiten biedt met een 256K contextvenster.",
"qwen3.description": "Qwen3 is Alibabas volgende generatie groot taalmodel met sterke prestaties in diverse toepassingen.",
@@ -1151,8 +1149,6 @@
"qwq.description": "QwQ is een redeneermodel binnen de Qwen-familie. In vergelijking met standaard instructie-getrainde modellen biedt het denk- en redeneervermogen dat de prestaties op complexe problemen aanzienlijk verbetert. QwQ-32B is een middelgroot redeneermodel dat zich kan meten met topmodellen zoals DeepSeek-R1 en o1-mini.",
"qwq_32b.description": "Middelgroot redeneermodel binnen de Qwen-familie. In vergelijking met standaard instructie-getrainde modellen verbeteren QwQs denk- en redeneervermogen de prestaties op complexe problemen aanzienlijk.",
"r1-1776.description": "R1-1776 is een na-getrainde variant van DeepSeek R1, ontworpen om ongecensureerde, onbevooroordeelde feitelijke informatie te bieden.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro van ByteDance ondersteunt tekst-naar-video, beeld-naar-video (eerste frame, eerste+laatste frame) en audiogeneratie gesynchroniseerd met visuele elementen.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite van BytePlus biedt web-gebaseerde generatie voor real-time informatie, verbeterde interpretatie van complexe prompts en verbeterde referentieconsistentie voor professionele visuele creatie.",
"solar-mini-ja.description": "Solar Mini (Ja) breidt Solar Mini uit met focus op Japans, terwijl het efficiënte, sterke prestaties in Engels en Koreaans behoudt.",
"solar-mini.description": "Solar Mini is een compact LLM dat beter presteert dan GPT-3.5, met sterke meertalige ondersteuning voor Engels en Koreaans, en biedt een efficiënte oplossing met een kleine voetafdruk.",
"solar-pro.description": "Solar Pro is een intelligent LLM van Upstage, gericht op instructieopvolging op een enkele GPU, met IFEval-scores boven de 80. Momenteel ondersteunt het Engels; de volledige release stond gepland voor november 2024 met uitgebreidere taalondersteuning en langere context.",

View File

@@ -30,7 +30,6 @@
"internlm.description": "Een open-source organisatie gericht op grootschalig modelonderzoek en tooling, met een efficiënt en gebruiksvriendelijk platform dat geavanceerde modellen en algoritmen toegankelijk maakt.",
"jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
"lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLMs op je eigen computer.",
"lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.",
"minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
"mistral.description": "Mistral biedt geavanceerde algemene, gespecialiseerde en onderzoeksmodellen voor complexe redenering, meertalige taken en codegeneratie, met functie-aanroepen voor aangepaste integraties.",
"modelscope.description": "ModelScope is het model-as-a-service platform van Alibaba Cloud, met een breed scala aan AI-modellen en inferentiediensten.",