Commencez à utiliser les modèles Mistral en quelques clics via notre plateforme pour développeurs hébergée sur l’infrastructure de Mistral. Nos serveurs sont hébergés dans l’UE.
Nous concevons les modèles ouverts les plus performants au monde, pour repousser les limites de l’innovation en IA.
Notre plateforme pour développeurs accueille nos modèles ouverts et optimisés pour la création d’applications rapides et intelligentes. Faites vos premiers pas gratuitement !
Des modèles de pointe de différentes tailles, disponibles pour des essais avec la licence de recherche Mistral ou pour la production avec la licence commerciale.
Une grande capacité de raisonnement sur des tâches très complexes et des problèmes sophistiqués.
Grand modèle avec des capacités de vision et de raisonnement de pointe.
Petit modèle pour entreprise
Modèle Mistral de pointe entraîné spécifiquement pour les tâches de codage.
Notre modèle edge le plus puissant. Succède à Mistral 7B.
Établit la norme de référence en matière de bon sens, de raisonnement et d’appel de fonctions dans la catégorie inférieure à 10M.
Notre modèle edge le plus efficace.
Le plus performant de sa catégorie, idéal pour l’informatique embarquée à faible consommation et à faible latence.
Une sémantique de pointe pour l’extraction de représentations de textes.
Un service de classification pour la modération de contenu textuel.
Pour en savoir plus sur nos différentes formules tarifaires, consultez notre page de tarification ici : Voir les tarifs.
Libres d’utilisation sous la licence Apache 2.0.
Petit modèle de gestion de versions
Variante de Mistral-7B, optimisée pour la résolution de problèmes mathématiques avancés.
Un modèle de langage Mamba2 conçu pour les tâches de codage.
Un petit modèle 12M de pointe développé en collaboration avec NVIDIA.
Mixtral 8x22B a établi une nouvelle norme en matière de performance et d’efficacité, avec seulement 39 milliards de paramètres actifs sur 141 milliards, offrant un rapport coût-efficacité inégalé pour sa taille. Sa capacité native d’appel de fonctions a permis le développement d’applications et la modernisation de la pile technologique à grande échelle.
Un mélange épars d’experts (SMoE) de haute qualité avec des poids ouverts. Égalise ou surpasse GPT3.5 sur la plupart des benchmarks standard, en particulier sur les capacités multilingues et le codage.
Le premier modèle Mistral, conçu pour des performances et une efficacité supérieures. Ce modèle utilise l’attention par requête groupée (GQA) pour une inférence plus rapide, associée à l’attention par fenêtre glissante (SWA), pour traiter efficacement des séquences de longueur arbitraire avec un faible coût d’inférence.
Ces modèles disposent également de licences commerciales pour les entreprises : Voir les licences commerciales.
Vous pouvez fine-tuner nos modèles de manière simple, efficace et rentable, et ainsi utiliser des modèles plus petits et mieux adaptés pour résoudre vos cas d’utilisation spécifiques. Le fine-tuning peut être effectué via notre code de fine-tuning open-source, ainsi que sur La Plateforme grâce à notre API performante de fine-tuning.
Bénéficiez de l’expertise exceptionnelle de Mistral en matière d’entraînement de modèles grâce à notre service très efficace de fine-tuning pour personnaliser nos modèles open-source et nos modèles commerciaux.
Le code de fine-tuning de Mistral vous permet de fine-tuner vous-même les modèles open-source de Mistral.
Modèle | Nom de l'API | Description | Entrée (/M tokens) | Sortie (/M tokens) |
---|---|---|---|---|
Mistral Large 24.11 | mistral-large-latest | Raisonnement de haut niveau pour des tâches de grande complexité et des problèmes sophistiqués. | $2 | $6 |
Pixtral Large | pixtral-large-latest | Grand modèle avec des capacités de vision et de raisonnement de pointe. | 2$ | 6$ |
Mistral Small 24.09 | mistral-small-latest | Modèle Mistral de pointe entraîné spécifiquement pour les tâches de codage. | 0,20$ | 0,60$ |
Codestral | codestral-latest | Modèle Mistral de pointe entraîné spécifiquement pour les tâches de codage. | 0,20$ | 0,6O$ |
Ministral 8B 24.10 | ministral-8b-latest | Modèle puissant pour les cas d'utilisation embarqués. | 0,1O$ | 0,1O$ |
Ministral 3B 24.10 | ministral-3b-latest | Modèle edge le plus efficace. | 0,04$ | 0,04$ |
Mistral Embed | mistral-embed | Sémantique de pointe pour l'extraction de représentations de textes. | 0,10$ | |
Mistral Moderation 24.11 | mistral-moderation-latest | Un service de classification pour la modération de contenu textuel. | 0,10$ |
Modèle | Nom de l'API | Description | Entrée (/M tokens) | Sortie (/M tokens) |
---|---|---|---|---|
Mistral Large 24.11 | mistral-large-latest | Raisonnement de haut niveau pour des tâches de grande complexité et des problèmes sophistiqués. | 1.8€ | 5.4€ |
Pixtral Large | pixtral-large-latest | Grand modèle avec des capacités de vision et de raisonnement de pointe. | 1,80€ | 5,40€ |
Mistral Small 24.09 | mistral-small-latest | Modèle Mistral de pointe entraîné spécifiquement pour les tâches de codage. | 0,18€ | 0,54€ |
Codestral | codestral-latest | Modèle Mistral de pointe entraîné spécifiquement pour les tâches de codage. | 0,18€ | 0,54€ |
Ministral 8B 24.10 | ministral-8b-latest | Modèle puissant pour les cas d'utilisation embarqués. | 0,09€ | 0,09€ |
Ministral 3B 24.10 | ministral-3b-latest | Modèle edge le plus efficace. | 0,04€ | 0,04€ |
Mistral Embed | mistral-embed | Sémantique de pointe pour l'extraction de représentations de textes. | 0,10€ | |
Mistral Moderation 24.11 | mistral-moderation-latest | Un service de classification pour la modération de contenu textuel. | 0,09€ |
Les modèles utilisés avec l’API Batch coûtent 50% moins cher que les prix indiqués ci-dessus.
Modèles ouvertsModèle | Nom de l'API | Description | Entrée (/M tokens) | Sortie (/M tokens) |
---|---|---|---|---|
Pixtral 12B | pixtral-12b | Petit modèle de vision. | 0,15$ | 0,15$ |
Mistral NeMo | mistral-nemo | Modèle Mistral de pointe entraîné spécifiquement pour la programmation. | 0,15$ | 0,15$ |
Mistral 7B | open-mistral-7b | Un modèle Transformer 7B, déployable rapidement et facilement personnalisable. | 0,25$ | 0,25$ |
Mixtral 8x7B | open-mixtral-8x7b | Un modèle SMoE 7M. Utilise 12,9 milliards de paramètres actifs sur un total de 45 milliards. | 0,70$ | 0,70$ |
Mixtral 8x22B | open-mixtral-8x22b | Mixtral 8x22B est actuellement le modèle open source le plus performant. Un modèle SMoE 22M. Utilise seulement 39 milliards de paramètres actifs sur un total de 141 milliards. | 2$ | 6$ |
Modèle | Nom de l'API | Description | Entrée (/M tokens) | Sortie (/M tokens) |
---|---|---|---|---|
Pixtral 12B | pixtral-12b | Petit modèle de vision. | 0,13€ | 0,13€ |
Mistral NeMo | mistral-nemo | Modèle Mistral de pointe entraîné spécifiquement pour la programmation. | 0,13€ | 0,13€ |
Mistral 7B | open-mistral-7b | Un modèle Transformer 7B, déployable rapidement et facilement personnalisable. | 0,20€ | 0,20€ |
Mixtral 8x7B | open-mixtral-8x7b | Un modèle SMoE 7M. Utilise 12,9 milliards de paramètres actifs sur un total de 45 milliards. | 0,65€ | 0,65€ |
Mixtral 8x22B | open-mixtral-8x22b | Mixtral 8x22B est actuellement le modèle open source le plus performant. Un modèle SMoE 22M. Utilise seulement 39 milliards de paramètres actifs sur un total de 141 milliards. | 1,80€ | 5,60€ |
Modèle | Entraînement unique (/M tokens) | Stockage | Entrée (/M tokens) | Sortie (/M tokens) |
---|---|---|---|---|
Mistral NeMo | 1$ | 2$/mois par modèle | 0,15$ | 0,15$ |
Mistral Large 24.11 | 9$ | 4$/mois par modèle | 2$ | 6$ |
Mistral Small | 3$ | 2$/mois par modèle | 0,20$ | 0,60$ |
Codestral | 3$ | 2$/mois par modèle | 0,20$ | 0,60$ |
Modèle | Entraînement unique (/M tokens) | Stockage | Entrée (/M tokens) | Sortie (/M tokens) |
---|---|---|---|---|
Mistral NeMo | 0,90€ | 1,80€/mois par modèle | 0,13€ | 0,13€ |
Mistral Large 24.11 | 8,20€ | 3,80€/mois par modèle | 1,80€ | 5,40€ |
Mistral Small | 2,70€ | 1,80€/mois par modèle | 0,18€ | 0,54€ |
Codestral | 2,70€ | 1,90€/mois par modèle | 0,18€ | 0,54€ |
Les tokens sont des représentations numériques de mots ou de parties de mots. En moyenne, un token équivaut à environ 4 caractères ou 0,75 mot en anglais.
Mistral AI fournit une API de fine-tuning via La Plateforme, ce qui facilite le fine-tuning de nos modèles open source et commerciaux. Il existe trois coûts liés au fine-tuning :
Accédez à nos derniers produits via notre plateforme pour développeurs, hébergée en Union Européenne.
from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage
api_key = os.environ["MISTRAL_API_KEY"]
model = "mistral-tiny"
client = MistralClient(api_key=api_key)
messages = [
ChatMessage(role="user",
content="Qui est le peintre français le plus connu ?")
]
La Plateforme est la solution préférée des développeurs pour accéder à tous les modèles de Mistral Al.
from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage
api_key = os.environ["MISTRAL_API_KEY"]
model = "mistral-tiny"
client = MistralClient(api_key=api_key)
messages = [
ChatMessage(role="user",
content="Qui est le peintre français le plus connu ?")
]
Nos modèles sont disponibles sous 3 licences différentes, optimisées pour les applications et les cas d’utilisation. Lorsqu’ils sont utilisés sur La Plateforme, tous nos modèles fonctionnent sous licence commerciale. Lorsqu’ils sont déployés en autonomie, nos modèles sont sous Apache 2.0 ou sous MNPL (Mistral Non-Production License) par défaut et prévoient les droits et limitations ci-dessous. Pour en savoir plus sur la MNPL, cliquez ici. Si vous souhaitez acheter une licence commerciale pour un modèle MNPL, veuillez contacter notre équipe commerciale ici.
Apache 2.0 | MNPL | Licence commerciale Mistral | |
---|---|---|---|
Accès aux poids | ✅ | ✅ | ✅ |
Déploiement pour usage individuel et tests non commerciaux | ✅ | ✅ | ✅ |
Fine-tuning et création de dérivés pour essais non commerciaux" | ✅ | ✅ | ✅ |
Déploiement pour des cas d'utilisation en production (usages internes et externes) | ✅ Illimité | ❌ Licence basée sur l'infrastructure | ✅ |
Utilisation de dérivés pour des cas d'utilisation en production (usages internes et externes) | ✅ Illimité | ❌ Licence basée sur l'infrastructure | ✅ |