mirror of https://github.com/ollama/ollama
test: add ministral-3 (#13300)
This commit is contained in:
parent
f8f1071818
commit
d771043e88
|
|
@ -33,6 +33,9 @@ func TestVisionModels(t *testing.T) {
|
||||||
// Qwen 3 VL mixture of experts
|
// Qwen 3 VL mixture of experts
|
||||||
model: "qwen3-vl:30b",
|
model: "qwen3-vl:30b",
|
||||||
},
|
},
|
||||||
|
{
|
||||||
|
model: "ministral-3",
|
||||||
|
},
|
||||||
}
|
}
|
||||||
|
|
||||||
for _, v := range testCases {
|
for _, v := range testCases {
|
||||||
|
|
|
||||||
|
|
@ -38,6 +38,7 @@ var (
|
||||||
|
|
||||||
// Note: add newer models at the top of the list to test them first
|
// Note: add newer models at the top of the list to test them first
|
||||||
ollamaEngineChatModels = []string{
|
ollamaEngineChatModels = []string{
|
||||||
|
"ministral-3",
|
||||||
"qwen3-coder:30b",
|
"qwen3-coder:30b",
|
||||||
"gpt-oss:20b",
|
"gpt-oss:20b",
|
||||||
"gemma3n:e2b",
|
"gemma3n:e2b",
|
||||||
|
|
@ -167,6 +168,7 @@ var (
|
||||||
"medllama2",
|
"medllama2",
|
||||||
"megadolphin",
|
"megadolphin",
|
||||||
"minicpm-v",
|
"minicpm-v",
|
||||||
|
"ministral-3",
|
||||||
"mistral-large",
|
"mistral-large",
|
||||||
"mistral-nemo",
|
"mistral-nemo",
|
||||||
"mistral-openorca",
|
"mistral-openorca",
|
||||||
|
|
@ -270,6 +272,7 @@ var (
|
||||||
"mistral",
|
"mistral",
|
||||||
"qwen2.5",
|
"qwen2.5",
|
||||||
"qwen2",
|
"qwen2",
|
||||||
|
"ministral-3",
|
||||||
"mistral-nemo",
|
"mistral-nemo",
|
||||||
"mistral-small",
|
"mistral-small",
|
||||||
"mixtral:8x22b",
|
"mixtral:8x22b",
|
||||||
|
|
|
||||||
Loading…
Reference in New Issue