La technologie Mistral

Modèles d’IA générative

Nous avons mis à disposition les modèles ouverts les plus performants pour accélérer l’innovation en IA et faire progresser la science.

Plateforme pour développeurs

Notre plateforme pour développeurs sert nos modèles ouverts et nos modèles optimisés, et vous permet de rapidement y développer des applications. Nous offrons de multiples options de déploiement.

Modèles à usage général

Mistral Nemo

Un modèle de pointe de 12B construit en collaboration avec NVIDIA, disponible sous la licence Apache 2.0.

  • Maîtrise de plusieurs langues, notamment l’anglais, le français, l’allemand, l’espagnol, l’italien, le portugais, le chinois, le japonais, le coréen, l’arabe et l’hindi
  • Grande fenêtre de contexte de 128K tokens
Mistral Large

Raisonnement de haut niveau pour les tâches de haute complexité, pour vos besoins les plus sophistiqués.

  • Des dizaines de langues prises en charge, y compris le français, l’allemand, l’espagnol, le chinois, le japonais, le coréen et le portugais ainsi que plus de 80 langages de programmation
  • Fenêtre de contexte de 32k tokens, avec un excellent rappel pour l’augmentation de la récupération
  • Capacités d’appel de fonctions natives, sorties JSON
  • Concise, utile, non biaisée et entièrement modulaire
  • Disponible pour auto-déploiement (les poids peuvent être téléchargés pour les tests ; une licence commerciale peut être achetée en contactant notre équipe commerciale ici)

Modèles spécialisés

Codestral

Modèle Mistral de pointe entraîné spécifiquement pour les tâches de codage.

  • Entraîné sur plus de 80 langages de programmation (incl. Python, Java, C, C++, PHP, Bash)
  • Optimisé pour une faible latence : Bien plus petit que les modèles de codage concurrents
  • Fenêtre de contexte de 32k
  • Disponible pour auto-déploiement (les poids peuvent être téléchargés pour les tests ; une licence commerciale peut être achetée en contactant notre équipe commerciale ici)
Mistral Embed

Modèle sémantique de pointe pour l’extraction de représentations de textes.

Modèles de recherche

Codestral Mamba

Modèle de pointe conçu pour les tâches de codage.

  • Fenêtre de contexte de 256 000 tokens
  • 7,3 milliards de paramètres
  • Disponible sous licence Apache 2.0
Mathstral

Déclinaison de Mistral-7B, optimisée pour résoudre des problèmes de mathématiques avancées.

  • Fenêtre de contexte de 32 000 tokens
  • 7 milliards de paramètres
  • Disponible sous licence Apache 2.0
Mixtral

Modèle sémantique de pointe pour l’extraction de représentations de textes.

  • Disponible en tailles 8x7B et 8×22B
  • Apache 2.0

La Plateforme

Accédez à nos derniers produits via notre plateforme de développement, hébergée en Union Européenne.

from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage

api_key = os.environ["MISTRAL_API_KEY"]
model = "mistral-tiny"

client = MistralClient(api_key=api_key)

messages = [
    ChatMessage(role="user",
    content="Qui est le peintre français le plus renommé ?")
]
Conçu pour les développeurs

La Plateforme est le moyen préféré des développeurs pour accéder à tous les modèles de Mistral AI.

  • Notre technologie en accès immédiat : Accédez à nos modèles au meilleur rapport qualité-prix
  • Guides et communauté : Utilisez nos guides et interagissez avec notre communauté pour créer vos applications.
  • Sécurisé et conforme : Vos données sont chiffrées en stockage (AES256) et en transit (TLS 1.2+).
from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage

api_key = os.environ["MISTRAL_API_KEY"]
model = "mistral-tiny"

client = MistralClient(api_key=api_key)

messages = [
    ChatMessage(role="user",
    content="Qui est le peintre français le plus renommé ?")
]

Affiner nos modèles

Nous vous permettons d’affiner nos modèles de manière simple, efficace et économique, et d’utiliser ainsi des modèles plus petits et mieux adaptés pour résoudre vos cas d’utilisation spécifiques. L’affinage peut être effectué avec notre code open-source d’affinage ainsi que sur La Plateforme avec notre API d’affinage efficace.

Utiliser le code d’affinage de Mistral

Profitez du code d’affinage de Mistral pour effectuer l’affinage sur les modèles open-source de Mistral par vous-même.

Affiner les modèles de Mistral sur La Plateforme avec l’API d’affinage de Mistral

Tirez parti de l’expertise unique de Mistral en matière de formation de modèles en utilisant notre service d’affinage hautement efficace pour spécialiser à la fois nos modèles open-source et commerciaux.

Déploiement où vous le souhaitez

La Plateforme
La Plateforme

Commencez à utiliser les modèles Mistral en quelques clics via notre plateforme pour développeurs, hébergée sur l’infrastructure de Mistral. Nos serveurs sont hébergés en Union Européenne.

Fournisseurs de services cloud
Fournisseurs de services cloud

Accédez à nos modèles via votre fournisseur cloud préféré et tirez le meilleur parti de vos crédits. Nos modèles ouverts sont actuellement disponible via nos partenaires (GCP, AWS, Azure, Snowflake, NVIDIA).
Mistral Large est disponible sur Azure AI et Snowflake.

Déploiement en propre
Déploiement en propre

Déployez les modèles Mistral sur un cloud virtuel ou sur site. Le déploiement autonome offre des niveaux plus avancés de personnalisation et de contrôle. Vos données restent dans vos murs. Essayez de déployer nos modèles ouverts et contactez notre équipe pour déployer nos modèles optimisés de la même manière.

Nos licences d’auto-déploiement

Nos modèles sont disponibles sous 3 licences différentes, optimisées pour les applications et les intentions d’utilisation. Lorsqu’ils sont servis sur La Plateforme, tous nos modèles fonctionnent sous une licence commerciale. Lorsqu’ils sont auto-déployés, nos modèles sont sous Apache 2.0 ou sous MNPL (Mistral Non-Production License) par défaut et viennent avec les droits et limitations ci-dessous. Vous pouvez en savoir plus sur la MNPL ici. Si vous souhaitez acheter une licence commerciale pour un modèle MNPL, veuillez contacter notre équipe commerciale ici.

Apache 2.0MNPLLicence commerciale Mistral
Accès aux poids
Déploiement pour usage individuel et tests non commerciaux
Affinage et création de dérivés pour tests non commerciaux
Déploiement pour des cas d'utilisation en production (usages internes et externes) Illimité Licence basée sur l'infrastructure
Utilisation de dérivés pour des cas d'utilisation en production (usages internes et externes) Illimité Licence basée sur l'infrastructure

Pay-as-you-go pricing

Price in $
Price in €
General purpose models
ModelAPI NameDescriptionInputOutput
Mistral NeMoopen-mistral-nemo-2407Mistral NeMo is a state-of-the-art 12B model developed with NVIDIA.$0.3 /1M tokens$0.3 /1M tokens
Mistral Largelarge-2407Top-tier reasoning for high-complexity tasks, for your most sophisticated needs.$3 /1M tokens$9 /1M tokens
ModelAPI NameDescriptionInputOutput
Mistral NeMoopen-mistral-nemo-2407Mistral NeMo is a state-of-the-art 12B model developed with NVIDIA.0.27€ /1M tokens0.27€ /1M tokens
Mistral Largelarge-2407Top-tier reasoning for high-complexity tasks, for your most sophisticated needs.2.7€ /1M tokens8.2€ /1M tokens
Specialist models
ModelAPI NameDescriptionInputOutput
Codestral Mamba 7Bcodestral-mambaA Mamba2 language model specialised in code generation.$0.25 /1M tokens$0.25 /1M tokens
Codestral 22Bcodestral-2405State-of-the-art Mistral model trained specifically for code tasks.$1 /1M tokens$3 /1M tokens
Mistral Embedmistral-embedState-of-the-art semantic for extracting representation of text extracts.$0.1 /1M tokens
ModelAPI NameDescriptionInputOutput
Codestral Mamba 7Bcodestral-mambaA Mamba2 language model specialised in code generation.0.2€ /1M tokens0.2€ /1M tokens
Codestral 22Bcodestral-2405State-of-the-art Mistral model trained specifically for code tasks.0.9€ /1M tokens2.8€ /1M tokens
Mistral Embedmistral-embedState-of-the-art semantic for extracting representation of text extracts.0.1€ /1M tokens
Legacy models
ModelAPI NameDescriptionInputOutput
Mistral 7Bopen-mistral-7bA 7B transformer model, fast-deployed and easily customisable.$0.25 /1M tokens$0.25 /1M tokens
Mixtral 8x7Bopen-mixtral-8x7bA 7B sparse Mixture-of-Experts (SMoE). Uses 12.9B active parameters out of 45B total.$0.7 /1M tokens$0.7 /1M tokens
Mixtral 8x22Bopen-mixtral-8x22bMixtral 8x22B is currently the most performant open model. A 22B sparse Mixture-of-Experts (SMoE). Uses only 39B active parameters out of 141B.$2 /1M tokens$6 /1M tokens
Mistral Smallmistral-small-latestCost-efficient reasoning, optimised for high volume use cases that require low latency.$1 /1M tokens$3 /1M tokens
Mistral Mediummistral-medium-latestWill be soon deprecated.$2.75 /1M tokens$8.1 /1M tokens
ModelAPI NameDescriptionInputOutput
Mistral 7Bopen-mistral-7bA 7B transformer model, fast-deployed and easily customisable.0.2€ /1M tokens0.2€ /1M tokens
Mixtral 8x7Bopen-mixtral-8x7bA 7B sparse Mixture-of-Experts (SMoE). Uses 12.9B active parameters out of 45B total.0.65€ /1M tokens0.65€ /1M tokens
Mixtral 8x22Bopen-mixtral-8x22bMixtral 8x22B is currently the most performant open model. A 22B sparse Mixture-of-Experts (SMoE). Uses only 39B active parameters out of 141B.1.9€ /1M tokens5.6€ /1M tokens
Mistral Smallmistral-small-latestCost-efficient reasoning, optimised for high volume use cases that require low latency.0.9€ /1M tokens2.8€ /1M tokens
Mistral Mediummistral-medium-latestWill be soon deprecated.2.5€ /1M tokens7.5€ /1M tokens
Fine-tuning models
ModelOne-off trainingStorageInputOutput
Mistral 7B$2 /1M tokens$2 per month per model$0.75 /1M tokens$0.75 /1M tokens
Mistral Small$4 /1M tokens$2 per month per model$2.5 /1M tokens$7.5 /1M tokens
Mistral NeMo$1 /1M tokens$2 per month per model$0.3 /1M tokens$0.3 /1M tokens
Codestral$3 /1M tokens$2 per month per model$1 /1M tokens$3 /1M tokens
Mistral Large 2407$9 /1M tokens$4 per month per model$3 /1M tokens$9 /1M tokens
ModelOne-off trainingStorageInputOutput
Mistral 7B1.9€ /1M tokens1.9€ per month per model0.7€ /1M tokens0.7€ /1M tokens
Mistral Small3.8€ /1M tokens1.9€ per month per model2.3€ /1M tokens7€ /1M tokens
Mistral NeMo0.9€ /1M tokens1.9€ per month per model0.27€ /1M tokens0.27€ /1M tokens
Codestral2.7€ /1M tokens1.9€ per month per model0.9€ /1M tokens2.8€ /1M tokens
Mistral Large 24078.2€ /1M tokens3.8€ per month per model2.7€ /1M tokens8.2€ /1M tokens
Explication des coûts d’affinage

Mistral AI fournit une API d’affinage via La Plateforme, ce qui facilite l’affinage de nos modèles open-source et commerciaux. Il y a trois coûts liés à l’affinage :

  • Entraînement unique: Prix par token sur les données que vous souhaitez utiliser pour affiner nos modèles standards ; frais minimum par tâche d’affinage de 4 $
  • Inférence: Prix par token d’entrée/sortie lors de l’utilisation des modèles affinés
  • Stockage: Prix par mois par modèle pour le stockage (indépendamment de l’utilisation du modèle ; les modèles peuvent être supprimés à tout moment)