Mistral 3 — Mistral AI компаниясының ең соңғы, өршіл шығарылымы — ашық салмақты модельдердің толық отбасы, ол бірден бірнеше бағытта ілгерілейді: флагмандық өлшемде сиретілген-эксперт (MoE) масштабталуы, шеткі және жергілікті орналастыруға арналған ықшам тығыз нұсқалар, ұзақ контексті мультимодалдық және нақты қолдану мен зерттеулерді ынталандыратын рұқсатшыл ашық лицензиялау.
Mistral 3 деген не?
Mistral 3 — Mistral AI 2025 жылдың соңында шығарған ашық салмақты мультимодал тілдік модельдерден тұратын біртұтас отбасы. Бұл отбасы үш тығыз (сиретілмеген) ықшам модельден тұрады — Ministral 3 3B, 8B және 14B параметрлері — және флагмандық Mistral Large 3, сиретілген Mixture-of-Experts (MoE) моделі, жалпы 675B параметрі бар және инференс кезінде шамамен 41B белсенді параметр қолданылады. Барлық модельдер Apache 2.0 лицензиясы бойынша шығарылған және кең тарату мен жергілікті орналастыруды қолдау үшін сығылған пішімдерде қолжетімді. Mistral атап өткен негізгі мүмкіндіктерге мультимодалдық, өте ұзын контекст терезелері (Large: 256K токенге дейін) және заманауи жеделдеткіштерге арналған оңтайландырулар жатады.
Mistral 3 үш себеп бойынша маңызды:
- Ауқым — отбасы ең кішіден шекаралық деңгейге дейінгі өлшемдерді қамтиды (3B / 8B / 14B тығыз Ministral нұсқалары және 675B-параметрлі MoE), бұл шығын/өнімділік арасындағы ымыраларға қарай зерттеу мен өндірістегі жұмыс ағындарын бірізді жүргізуге мүмкіндік береді.
- Ашықтық — Mistral модельдер мен салмақтарды Apache-2.0 лицензиясымен шығарды және қабылдауды жеделдету үшін Hugging Face сияқты платформаларда орналастырылатын артефактілерді ұсынды.
- Инженерлік фокус — Large 3 моделі инференс кезінде белсенді параметрлер жиыны едәуір аз болатын, бірақ жалпы параметр саны өте үлкен түйінді MoE архитектурасын қабылдайды; бұл кейбір жүктемелер үшін алдыңғы қатарлы қабілеттілікті жақсы өткізу қабілетімен және құн тиімділігімен ұсынуға бағытталған.
Mistral 3 отбасының шолуы
Ministral 3 — 14B (Ministral 3 14B)
Бұл не: Ықшам/шеткі “Ministral” желісіндегі ең ірі тығыз (MoE емес) модель: Base / Instruct / Reasoning нұсқаларында ұсынылатын, мәтін + кескінді түсіну мен нұсқауды орындауға бапталған, сапасы жоғары 14 миллиард параметрлі мультимодал модель.
Қашан таңдау керек: MoE күрделілігінсіз тығыз модельден дерлік жоғарғы деңгейлі өнімділік қажет болса және бір модельде күшті чат/нұсқауқи-орындау және көру мүмкіндіктерін қаласаңыз. Чат агенттері, мультимодал көмекшілер, код генерациясы және үлкенірек модельді көтере алатын талапшыл құрылғылар/шеткі жүктемелер үшін жақсы.
Ministral 3 — 8B (Ministral 3 8B)
Бұл не: Ministral 3 отбасының теңгерілген, тиімді 8 миллиард параметрлі тығыз моделі. Base / Instruct / Reasoning нұсқаларында қолжетімді және мультимодал кірістерді қолдайды. Көптеген өндірістік қолданбалар үшін “алтын орта” ретінде позицияланған.
Қашан таңдау керек: Жасау сапасы мен пайымдау қабілеті жақсы болсын, бірақ 14B-мен салыстырғанда кідіріс пен VRAM ізін айтарлықтай азайтқыңыз келсе. Чатботтар, құрылғыдағы көмекшілер, GPU бюджеті шектеулі веб-қызметтер және квантизациямен ендірілген қолданулар үшін тамаша.
Ministral 3 — 3B (Ministral 3 3B)
Бұл не: Ministral 3 отбасындағы ең кіші тығыз мүше: Base / Instruct / Reasoning нұсқалары бар 3 миллиард параметрлі мультимодал модель. Өте төмен жад/кідіріс сценарийлері үшін, заманауи мультимодал мүмкіндіктерді сақтай отырып жасалған.
Қашан таңдау керек: Құрылғыда инференс, өте төмен кідіріс немесе көп санды жеңіл агенттерді төмен құнмен параллель іске қосу қажет болғанда — мысалы, мобилді қолданбалар, роботтар, дрондар немесе жергілікті құпиялылыққа сезімтал орналастырулар. Чат, қысқаша мазмұндау, жеңіл код тапсырмалары және жедел көру+мәтін тапсырмалары үшін қолайлы.
Mistral Small 3 — 24B(Mistral Small 3)
Бұл не: Mistral 3 отбасының бөлігі ретінде шығарылған кідіріс-оңтайландырылған 24 миллиард параметрлі тығыз модель. MoE күрделілігінсіз жоғары бір-GPU өткізу қабілеті мен күшті генерация сапасын жеткізуге арналған.
Қашан таңдау керек: Ең жақсы бір-GPU (немесе бір тораптық) ымыра қажет болса: көптеген бенчмарктерде 14B/8B-ден әлдеқайда жоғары сапа, әрі қызметке орналастыру қарапайым (MoE жоқ). Өндірістік диалогтық жүйелер, неғұрлым адал көмекшілер және MoE қызмет көрсету күрделілігінсіз күштірек пайымдауды қажет ететін қолданбалар үшін жақсы.
Mistral Large 3 — MoE (Mixture-of-Experts)
Бұл не: Mistral 3 отбасындағы флагмандық сиретілген Mixture-of-Experts (MoE) моделі: ≈675B жалпы параметр және бір токенге шаққанда ~41B белсенді параметр (яғни әр токен үшін тек сараланған эксперттер қосылады). Алдыңғы қатарлы пайымдау, өте ұзын контекст және салалар арасындағы жоғары өнімділік үшін жасалған. Ашық салмақты (Apache-2.0).
Қашан таңдау керек: Ең үздік пайымдау, өте ұзын контексті түсіну (Large 3 ұзын терезелерді қолдайды — вендор беттерінде 256k токенге дейін деп көрсетіледі) немесе MoE қызмет көрсету күрделілігі мен инфрақұрылымын негіздей алатын жоғары құндылықты кәсіптік жүйелер қажет болғанда.
Салыстыру кестесі
| Model | Strengths | Limitations & notes |
|---|---|---|
| Ministral 3 14B | Ықшам отбасында сапа → модель өлшемінің ең жақсы балансы; оңтайландырылған стекстерде жиі 24B деңгейіндегі бір-GPU кідірісіне сәйкес келеді немесе соған жақындайды. Instruct / Reasoning нұсқаларын пайдаланғанда күшті пайымдау және мультимодал түсіну. | 8B/3B-ге қарағанда жад ізі үлкен — тұтынушы деңгейіндегі бір GPU-да орналастыру үшін квантизация немесе оңтайландырылған ядролар қажет болуы мүмкін. Егер абсолютті ең кіші кідіріс ізі керек болса, 8B немесе 3B баламаларын қарастырыңыз. |
| Ministral 3 8B | Құн/кідіріс бойынша күшті ымыра: 14B-мен салыстырғанда жад және есептеу талаптары әлдеқайда төмен, бірақ мультимодал және пайымдау өнімділігі күшті (әсіресе Reasoning нұсқасында). Оңтайландырылған рантаймдар және квантизациямен іске қосу оңай. | Ең күрделі пайымдау немесе ең ұзын контекст тапсырмаларында 14B немесе 24B Small моделіндей мықты емес, бірақ әлдеқайда төмен құнда өндірісте жиі “жеткілікті жақсы”. Математика/кодтау/STEM тапсырмалары үшін Reasoning нұсқасын қолданыңыз. |
| Ministral 3 3B | Ең кіші із, шектеулі жабдықта ең жылдам, жергілікті түрде квантизация және орналастыру ең оңай. Тюнингтелген нұсқаларында кескінді түсіну және нұсқаны орындауды қолдайды. | Өте ұзын немесе өте күрделі пайымдау тапсырмаларында 8B/14B/24B/үлкен MoE-мен салыстырғанда генерация сапасы төменірек. Масштабтап орналастыру немесе шеткі құрылғылар үшін үздік, бірақ ең жоғары дәлдік керек болса, үлкен модель таңдаңыз. |
| Mistral Small 3 | Өз санатында MMLU-стиліндегі бенчмарктерде жоғары нәтиже, кідіріске оңтайландырылған архитектура және ядролар, әрі тікелей қолдануға арналған Apache-2.0 бойынша шығарылған. Бұлт вендорлары мен оңтайландырылған рантаймдар (NVIDIA және т.б.) тарапынан кең қолдау. | Ministral 14B/8B/3B модельдеріне қарағанда VRAM/есептеу көбірек — ұзын контекст терезелері немесе жоғары бір мезгілде сұраным үшін қуаттырақ бір GPU немесе көп-GPU конфигурациялары қажет болуы мүмкін. Бірақ MoE флагманымен салыстырғанда хосттау қарапайым. |
| Mistral Large 3 | Инференс құны шамалас тығыз модельмен салыстырғанда әр токенге шаққандағы тиімді сыйымдылық әлдеқайда жоғары (өйткені тек белсенді эксперттер пайдаланылады), бұл жоғары пайымдау және ұзын контекст мінез-құлқын қамтамасыз етеді. | Қызмет көрсету күрделілігі: MoE эксперттерді бөлу, роутинг, қосымша жад және желілік I/O талап етеді — тығыз модельге қарағанда ауқымда іске қосу күрделірек және қымбат. |
Mistral 3 бенчмарктары — ол қалай жұмыс көрсетеді?
Бенчмарктер мінсіз емес, бірақ пайдалы өлшем құралы. Іске қосылғаннан бері бірнеше тәуелсіз және үшінші тарап бағалаулары пайда болды; көрініс күрделі: Mistral Large 3 көптеген стандартты лидербордтарда (әсіресе пайымдаусыз және мультимодал тапсырмаларда) ашық модельдердің алдыңғы шебін итермелейді не теңеседі, ал Ministral сериясы шағын ауқымды тапсырмаларда баға-өнімділік бойынша мықты нәтиже көрсетеді.
Жалпы NLP және пайымдау
Пайымдау және ұзын контекст тапсырмаларында күшті: қауымдастық салыстырмаларында Mistral Large 3 пайымдау деректер жиынтықтарында (AIME, алдыңғы деңгейдегі математика/кодтау жиынтықтары) және MMLU сияқты жалпы білім бенчмарктерінде бәсекелі (жиі ашық қайнарда ең жоғары) көрсеткіштерді хабарлайды. Large 3-ті қамтыған тәуелсіз кросс-тақырып мақалалары мен лидербордтар оның ашық салмақты модельдер арасында ең жоғары деңгейде жұмыс істейтінін көрсетеді.
Код және бағдарламалық инженерия
Ашық бастапқы кодтау лидербордтары: бастапқы LMArena және SWE-Bench нәтижелері Mistral Large 3-тің кодтау тапсырмаларында ашық модельдер арасында үздік орындаушы екенін көрсетеді — кейбір қауымдастық рейтингтері оны белгілі лидербордтарда ашық-қайнар бойынша №1 деп қояды. Дегенмен, жабық модельдер (OpenAI, xAI, Google) меншікті лидербордтарда абсолютті ең жоғары код мүмкіндіктерінде жиі алда.
LMArena лидербордында Mistral Large 3:
- ашық бастапқы инференс емес модельдер арасында 2-орында;
- ашық бастапқы жалпы модельдер арасында 6-орында.
| Item | Mistral 3 14B Instruct | Mistral 3 8B Instruct | Mistral 3 3B Instruct |
|---|---|---|---|
| Модельді позициялау | Жоғары өнімді шеткі флагман (корпоративтік деңгей) | Теңгерімді және энергия тиімді негізгі модель | Өте жеңіл жергілікті/шеткі модель |
| Жалпы параметрлер | ≈ 14B (13.5B LM + 0.4B Vision) | ≈ 8.8B (8.4B LM + 0.4B Vision) | ≈ 3.8B (3.4B LM + 0.4B Vision) |
| Көрнекі мүмкіндіктер | Жоғары ажыратымдылықтағы суретті түсіну, құжат талдауы | Орташа ажыратымдылықтағы сурет Q&A | Жеңілдетілген сурет сипаттамасы |
| Агент мүмкіндіктері | Function Calling + JSON output | Function Calling + JSON output | Function Calling + JSON output |
| Контекстік пайымдау қабілеті | ⭐⭐⭐⭐⭐ (Күшті) | ⭐⭐⭐⭐ (Орташа күшті) | ⭐⭐⭐ (Жеңіл) |
| Математикалық пайымдау (AIME25) | 0.850 | 0.787 | 0.721 |
| Мультимодал өнімділік (MMMBench) | 8.49 | 8.08 | 7.83 |
| Нұсқауды орындау (WildBench) | 68.5 | 66.8 | 56.8 |
| Білімді түсіну (MMLU) | 0.794 | 0.761 | 0.652 |
| Жады талабы (FP8) | ≈ 24 GB | ≈ 12 GB | ≈ 8 GB |
Mistral 3-ке қалай қол жеткізу/сынап көру (қадам-қадам)
1)Hugging Face-тен жүктеп алып іске қосу (салмақтар + модель карталары)
- Mistral ұйымының бетіне және нақты модель бетіне барыңыз (мысалы,
mistralai/Mistral-Large-3-675B-Instruct-2512немесе Ministral 3 модель беттері) және ұсынылатын пішімдер (NVFP4/FP8/FP16) үшін “Files & versions” / модель картасын қадағалаңыз. - Әдеттегі жұмыс барысы:
pip install transformers accelerate torch(немесе vLLM сияқты рантаймды қолданыңыз).- Hugging Face-тен нақты модель ID-сін көшіріңіз (модель беттерінде ресми ID және ұсынылатын пішімдер бар).
- Мысал (ықшам Ministral модель үшін — нақты іске қосуда HF-тің дәл ID-сін қолданыңыз):
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("mistralai/<model-id>")
model = AutoModelForCausalLM.from_pretrained("mistralai/<model-id>",
device_map="auto",
torch_dtype="auto")
- Large 3 (MoE) үшін, вендор рантаймдарын немесе HF-inference эндпойнттарын қалаңыз — тікелей
transformersарқылы жүктеу MoE тарқауы үшін оңтайлы болмауы мүмкін.
2) Басқарылатын бұлттық эндпойнтті пайдалану (ең жылдам, инфрақұрылымсыз)
- Amazon Bedrock: Mistral Large 3 және Ministral 3 Bedrock-қа қосылды — Bedrock арқылы серверсіз эндпойнттар жасап, Bedrock API/SDK арқылы шақыра аласыз. Инфрақұрылымдық операцияларсыз өндірістік қолданбалар үшін жақсы.
- IBM watsonx және Azure Foundry: іске қосу серіктестері ретінде жарияланды — кәсіптік деңгейдегі хостталған қолжетімділік және сәйкестік мүмкіндіктері.
- Mistral AI Studio: Mistral-дың өз моделдерін сынауға арналған хостталған өнімі.
3) Вендор оңтайландырған стектерді пайдалану (өзіңіз хосттасаңыз)
- NVIDIA: жақсы өткізу қабілеті мен құн үшін NVIDIA-ның оңтайландырылған рантаймдарын және FP8/NVFP4 нұсқаларын қолданыңыз (NVIDIA Mistral 3 бойынша оңтайландырулармен дев-блог жариялады). Large 3-ті хосттасаңыз, GB200/H200 класты жабдықты пайдаланып, NVIDIA нұсқаулығын ұстаныңыз.
- vLLM / MoE-ға бейімделген рантаймдар: көптеген топтар кідірісті төмендету және жақсы батчинг үшін vLLM немесе MoE-саналы инференс стекстерін қолданады.
4) Үшінші тарап хосттары / API-лер
Modal, CometAPI және басқалар сияқты провайдерлер модельді қарапайым API-лар немесе pay-as-you-go эндпойнттар арқылы шақыруға мүмкіндік береді — бұлт вендорына тәуелділіксіз прототиптеуге пайдалы.
шектеулер, тәуекелдер және үздік тәжірибелер
Белгілі шектеулер мен істен шығу сценарийлері
- Бенчмарктер бәрін анықтамайды: хабарланған лидерборд орындары өзгеріп отырады; тапсырмаға тән бағалау өте маңызды.
- Нұсқау бойынша баптаудың өзгергіштігі: әртүрлі instruction-tuned нұсқалар (base / instruct / reasoning) әртүрлі мінез-құлық көрсетуі мүмкін; дұрыс нұсқаны таңдаңыз.
- MoE үшін орналастыру күрделілігі: эксперттер қоспасы модельдерін орналастыру және баптау күрделірек болуы мүмкін (роутинг, жад орналасуы, батчинг). Мүмкін болса, вендор ұсынған рантаймдар мен квантизацияланған пішімдерді пайдаланыңыз.
Құн және тиімділік туралы ескертулер
- Ministral 3 (3–14B): Токенге құны төмен, арзан GPU-лармен немесе көптеген on-prem инстанстарымен мүмкін. Клиенттік қолданбаларға, мобилді бэкендтерге немесе қатаң кідіріс бюджеті бар қызметтерге ендіруге жақсы.
- Mistral Large 3: Абсолютті ресурс қажеттілігі жоғарырақ, бірақ сиретілген активация 675B тығыз модельмен салыстырғанда токенге шаққандағы белсенді есептеуді азайтады; вендор-оңтайландырылған стекстер (NVIDIA) кідіріс пен құнды айтарлықтай төмендете алады. Егер пайымдау/ұзын контекст артықшылықтары керек болса, Large 3 қабілеттілігі ұқсас тығыз модельдермен салыстырғанда инференс құнын үнемді қылады.
Қауіпсіздік және басқару
Ашық лицензия + кәсіптік бақылаулар: Apache 2.0 салмақтары кең қолдануға мүмкіндік береді; кәсіпорындар қауіпсіздік қабаттарын (фильтрлер, адамның қатысуымен тексерулер, шығу тегі бақылауы) қосып, доменге тән теріс қолдану сценарийлері үшін red-teaming жүргізуі тиіс. Серіктестік пен жаңалықтар Mistral-дың жауапты енгізулер бойынша серіктестермен жұмыс істеп жатқанын көрсетеді.
Үздік тәжірибелер
- Деректеріңізде бенчмарк жүргізіңіз: өз промпттарыңызбен, температура параметрлерімен және пост-өңдеумен бағалауды қайталаңыз.
- Көп деңгейлі инференс қолданыңыз: арзан/жылдам тапсырмаларды тығыз Ministral модельдеріне бағыттап, ауыр тапсырмаларға Large 3-ті сақтаңыз.
- Оңтайландырылған пішімдерді пайдаланыңыз: кідірісті жақсартып, жад ізін азайту үшін вендор ұсынған пішімдер мен ядроларды (NVFP4/Triton) қолданыңыз.
Қорытынды: 2025 жылы Mistral 3 қайда үйлеседі?
Mistral 3 — ашық-қайнар және кәсіптік AI экожүйелері үшін стратегиялық маңызды шығарылым. Рұқсатшыл лицензияланған, орналастыруға ыңғайлы ықшам отбасын (Ministral 3) жоғары сыйымдылықты сиретілген флагманмен (Mistral Large 3) біріктіру арқылы Mistral хоббистердің жергілікті әзірлеуінен бастап талапшыл кәсіптік агент жүктемелеріне дейінгі кең спектрді қамтитын құралдар жиынтығын ұсынды. Вендорлық оңтайландырулар (әсіресе NVIDIA) және ашық пішімдер өнімділік пен құнды жұмыс жүктемесіне қарай баптауға мүмкіндік береді. Ерте бенчмарктер Mistral Large 3-тің ашық модель лидербордтарының шыңында бәсекелесетінін, ал Ministral нұсқалары практикалық тапсырмаларда баға-тиімділігімен ерекшеленетінін көрсетеді.
Егер сіздің басымдықтарыңыз ашық лицензиялау, модельдерді жергілікті/офлайн іске қосу мүмкіндігі және bot
Бастау үшін, Gemini 3 Pro сияқты қосымша модельдердің мүмкіндіктерін Playground ішінде зерттеңіз және егжей-тегжейлі нұсқаулар үшін API guide бөлімімен танысыңыз. Қол жеткізер алдында, CometAPI жүйесіне кіріп, API кілтін алғаныңызға көз жеткізіңіз. CometAPI интеграцияға көмектесу үшін ресми бағадан әлдеқайда төмен баға ұсынады.
Дайынсыз ба?→ Sign up for CometAPI today !
