Commencez à utiliser les modèles Mistral en quelques clics via notre plateforme pour développeurs, hébergée sur l’infrastructure de Mistral. Nos serveurs sont hébergés en Union Européenne.
Nous avons mis à disposition les modèles ouverts les plus performants pour accélérer l’innovation en IA et faire progresser la science.
Notre plateforme pour développeurs sert nos modèles ouverts et nos modèles optimisés, et vous permet de rapidement y développer des applications. Nous offrons de multiples options de déploiement.
Un modèle de pointe de 12B construit en collaboration avec NVIDIA, disponible sous la licence Apache 2.0.
Raisonnement de haut niveau pour les tâches de haute complexité, pour vos besoins les plus sophistiqués.
Modèle Mistral de pointe entraîné spécifiquement pour les tâches de codage.
Modèle sémantique de pointe pour l’extraction de représentations de textes.
Modèle de pointe conçu pour les tâches de codage.
Déclinaison de Mistral-7B, optimisée pour résoudre des problèmes de mathématiques avancées.
Modèle sémantique de pointe pour l’extraction de représentations de textes.
Accédez à nos derniers produits via notre plateforme de développement, hébergée en Union Européenne.
from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage
api_key = os.environ["MISTRAL_API_KEY"]
model = "mistral-tiny"
client = MistralClient(api_key=api_key)
messages = [
ChatMessage(role="user",
content="Qui est le peintre français le plus renommé ?")
]
La Plateforme est le moyen préféré des développeurs pour accéder à tous les modèles de Mistral AI.
from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage
api_key = os.environ["MISTRAL_API_KEY"]
model = "mistral-tiny"
client = MistralClient(api_key=api_key)
messages = [
ChatMessage(role="user",
content="Qui est le peintre français le plus renommé ?")
]
Nous vous permettons d’affiner nos modèles de manière simple, efficace et économique, et d’utiliser ainsi des modèles plus petits et mieux adaptés pour résoudre vos cas d’utilisation spécifiques. L’affinage peut être effectué avec notre code open-source d’affinage ainsi que sur La Plateforme avec notre API d’affinage efficace.
Profitez du code d’affinage de Mistral pour effectuer l’affinage sur les modèles open-source de Mistral par vous-même.
Tirez parti de l’expertise unique de Mistral en matière de formation de modèles en utilisant notre service d’affinage hautement efficace pour spécialiser à la fois nos modèles open-source et commerciaux.
Nos modèles sont disponibles sous 3 licences différentes, optimisées pour les applications et les intentions d’utilisation. Lorsqu’ils sont servis sur La Plateforme, tous nos modèles fonctionnent sous une licence commerciale. Lorsqu’ils sont auto-déployés, nos modèles sont sous Apache 2.0 ou sous MNPL (Mistral Non-Production License) par défaut et viennent avec les droits et limitations ci-dessous. Vous pouvez en savoir plus sur la MNPL ici. Si vous souhaitez acheter une licence commerciale pour un modèle MNPL, veuillez contacter notre équipe commerciale ici.
Apache 2.0 | MNPL | Licence commerciale Mistral | |
---|---|---|---|
Accès aux poids | ✅ | ✅ | ✅ |
Déploiement pour usage individuel et tests non commerciaux | ✅ | ✅ | ✅ |
Affinage et création de dérivés pour tests non commerciaux | ✅ | ✅ | ✅ |
Déploiement pour des cas d'utilisation en production (usages internes et externes) | ✅ Illimité | ❌ Licence basée sur l'infrastructure | ✅ |
Utilisation de dérivés pour des cas d'utilisation en production (usages internes et externes) | ✅ Illimité | ❌ Licence basée sur l'infrastructure | ✅ |
Model | API Name | Description | Input | Output |
---|---|---|---|---|
Mistral NeMo | open-mistral-nemo-2407 | Mistral NeMo is a state-of-the-art 12B model developed with NVIDIA. | $0.3 /1M tokens | $0.3 /1M tokens |
Mistral Large | large-2407 | Top-tier reasoning for high-complexity tasks, for your most sophisticated needs. | $3 /1M tokens | $9 /1M tokens |
Model | API Name | Description | Input | Output |
---|---|---|---|---|
Mistral NeMo | open-mistral-nemo-2407 | Mistral NeMo is a state-of-the-art 12B model developed with NVIDIA. | 0.27€ /1M tokens | 0.27€ /1M tokens |
Mistral Large | large-2407 | Top-tier reasoning for high-complexity tasks, for your most sophisticated needs. | 2.7€ /1M tokens | 8.2€ /1M tokens |
Model | API Name | Description | Input | Output |
---|---|---|---|---|
Codestral Mamba 7B | codestral-mamba | A Mamba2 language model specialised in code generation. | $0.25 /1M tokens | $0.25 /1M tokens |
Codestral 22B | codestral-2405 | State-of-the-art Mistral model trained specifically for code tasks. | $1 /1M tokens | $3 /1M tokens |
Mistral Embed | mistral-embed | State-of-the-art semantic for extracting representation of text extracts. | $0.1 /1M tokens |
Model | API Name | Description | Input | Output |
---|---|---|---|---|
Codestral Mamba 7B | codestral-mamba | A Mamba2 language model specialised in code generation. | 0.2€ /1M tokens | 0.2€ /1M tokens |
Codestral 22B | codestral-2405 | State-of-the-art Mistral model trained specifically for code tasks. | 0.9€ /1M tokens | 2.8€ /1M tokens |
Mistral Embed | mistral-embed | State-of-the-art semantic for extracting representation of text extracts. | 0.1€ /1M tokens |
Model | API Name | Description | Input | Output |
---|---|---|---|---|
Mistral 7B | open-mistral-7b | A 7B transformer model, fast-deployed and easily customisable. | $0.25 /1M tokens | $0.25 /1M tokens |
Mixtral 8x7B | open-mixtral-8x7b | A 7B sparse Mixture-of-Experts (SMoE). Uses 12.9B active parameters out of 45B total. | $0.7 /1M tokens | $0.7 /1M tokens |
Mixtral 8x22B | open-mixtral-8x22b | Mixtral 8x22B is currently the most performant open model. A 22B sparse Mixture-of-Experts (SMoE). Uses only 39B active parameters out of 141B. | $2 /1M tokens | $6 /1M tokens |
Mistral Small | mistral-small-latest | Cost-efficient reasoning, optimised for high volume use cases that require low latency. | $1 /1M tokens | $3 /1M tokens |
Mistral Medium | mistral-medium-latest | Will be soon deprecated. | $2.75 /1M tokens | $8.1 /1M tokens |
Model | API Name | Description | Input | Output |
---|---|---|---|---|
Mistral 7B | open-mistral-7b | A 7B transformer model, fast-deployed and easily customisable. | 0.2€ /1M tokens | 0.2€ /1M tokens |
Mixtral 8x7B | open-mixtral-8x7b | A 7B sparse Mixture-of-Experts (SMoE). Uses 12.9B active parameters out of 45B total. | 0.65€ /1M tokens | 0.65€ /1M tokens |
Mixtral 8x22B | open-mixtral-8x22b | Mixtral 8x22B is currently the most performant open model. A 22B sparse Mixture-of-Experts (SMoE). Uses only 39B active parameters out of 141B. | 1.9€ /1M tokens | 5.6€ /1M tokens |
Mistral Small | mistral-small-latest | Cost-efficient reasoning, optimised for high volume use cases that require low latency. | 0.9€ /1M tokens | 2.8€ /1M tokens |
Mistral Medium | mistral-medium-latest | Will be soon deprecated. | 2.5€ /1M tokens | 7.5€ /1M tokens |
Model | One-off training | Storage | Input | Output |
---|---|---|---|---|
Mistral 7B | $2 /1M tokens | $2 per month per model | $0.75 /1M tokens | $0.75 /1M tokens |
Mistral Small | $4 /1M tokens | $2 per month per model | $2.5 /1M tokens | $7.5 /1M tokens |
Mistral NeMo | $1 /1M tokens | $2 per month per model | $0.3 /1M tokens | $0.3 /1M tokens |
Codestral | $3 /1M tokens | $2 per month per model | $1 /1M tokens | $3 /1M tokens |
Mistral Large 2407 | $9 /1M tokens | $4 per month per model | $3 /1M tokens | $9 /1M tokens |
Model | One-off training | Storage | Input | Output |
---|---|---|---|---|
Mistral 7B | 1.9€ /1M tokens | 1.9€ per month per model | 0.7€ /1M tokens | 0.7€ /1M tokens |
Mistral Small | 3.8€ /1M tokens | 1.9€ per month per model | 2.3€ /1M tokens | 7€ /1M tokens |
Mistral NeMo | 0.9€ /1M tokens | 1.9€ per month per model | 0.27€ /1M tokens | 0.27€ /1M tokens |
Codestral | 2.7€ /1M tokens | 1.9€ per month per model | 0.9€ /1M tokens | 2.8€ /1M tokens |
Mistral Large 2407 | 8.2€ /1M tokens | 3.8€ per month per model | 2.7€ /1M tokens | 8.2€ /1M tokens |
Mistral AI fournit une API d’affinage via La Plateforme, ce qui facilite l’affinage de nos modèles open-source et commerciaux. Il y a trois coûts liés à l’affinage :