La technologie Mistral

Nos modèles d’IA générative

Nous concevons les modèles ouverts les plus performants au monde, pour repousser les limites de l’innovation en IA.

Plateforme pour développeurs

Notre plateforme pour développeurs accueille nos modèles ouverts et optimisés pour la création d’applications rapides et intelligentes. Faites vos premiers pas gratuitement !

Nos modèles premium

Des modèles de pointe de différentes tailles, disponibles pour des essais avec la licence de recherche Mistral ou pour la production avec la licence commerciale.

Mistral Large 24.11

Une grande capacité de raisonnement sur des tâches très complexes et des problèmes sophistiqués.

  • Multilingue et grande maîtrise en programmation
  • Fenêtre contextuelle de 128K tokens
  • Déployable partout (sur site / VPC / API)
Pixtral Large

Grand modèle avec des capacités de vision et de raisonnement de pointe.

  • Grand modèle avec capacité de vision
  • Analyse, recherche, examine et comprend mieux les images
  • Déployable partout (on-prem / VPC / API)
Mistral Small 24.09

Petit modèle pour entreprise

  • Le modèle le plus puissant de sa taille
  • Disponible sous la licence de recherche Mistral
  • Fenêtre contextuelle de 128K tokens
  • Modèle rapide et économique pour une multitude de cas d’utilisation tels que la traduction, le résumé et l’analyse des émotions
Codestral

Modèle Mistral de pointe entraîné spécifiquement pour les tâches de codage.

  • Entraîné sur plus de 80 langages de programmation (dont Python, Java, C, C++, PHP, Bash)
  • Optimisé pour une faible latence : Bien plus petit que les modèles de codage concurrents
  • Fenêtre contextuelle de 32K tokens
Ministral 8B 24.10

Notre modèle edge le plus puissant. Succède à Mistral 7B.
Établit la norme de référence en matière de bon sens, de raisonnement et d’appel de fonctions dans la catégorie inférieure à 10M.

  • Fenêtre contextuelle de 128K tokens
  • Idéal pour l’informatique embarquée et les cas d’utilisation edge
  • Très performant en raisonnement, appel de fonctions et bon sens
Ministral 3B 24.10

Notre modèle edge le plus efficace.
Le plus performant de sa catégorie, idéal pour l’informatique embarquée à faible consommation et à faible latence.

  • Fenêtre contextuellee de 128K tokens
  • Très performant dans l’appel de fonctions pour les flux de travail agentiques
  • Idéal pour la quantification sans perte et l’adaptation de cas d’utilisation spécifiques
Mistral Embed

Une sémantique de pointe pour l’extraction de représentations de textes.

Mistral Moderation 24.11

Un service de classification pour la modération de contenu textuel.

  • Fenêtre contextuelle de 8K tokens
  • Conforme à 9 politiques relatives au contenu indésirable
  • Adapté pour le contenu généré par les utilisateurs et les modèles
Essayer sur la Plateforme

Démarrez avec l'API

Obtenir une licence commerciale

Pour les POC, les tests et la production

Télécharger les poids

Pour la recherche uniquement

Pour en savoir plus sur nos différentes formules tarifaires, consultez notre page de tarification ici : Voir les tarifs.

Nos modèles gratuits

Libres d’utilisation sous la licence Apache 2.0.

Nos derniers modèles
Pixtral 12B

Petit modèle de gestion de versions

  • Analyses, recherches, révisions et meilleure compréhension des images
  • Disponible sous la licence Apache 2.0
  • Déploiement dans votre propre environnement, pour éviter la transmission de vos fichiers à un fournisseur tiers.
Mathstral

Variante de Mistral-7B, optimisée pour la résolution de problèmes mathématiques avancés.

  • Fenêtre contextuelle de 32K tokens
  • 7 milliards de paramètres
  • Disponible sous la licence Apache 2.0
Codestral Mamba

Un modèle de langage Mamba2 conçu pour les tâches de codage.

  • Fenêtre contextuelle de 256K tokens
  • 7,3 milliards de paramètres
  • Disponible sous la licence Apache 2.0
Mistral NeMo

Un petit modèle 12M de pointe développé en collaboration avec NVIDIA.

  • Le modèle le plus puissant de sa catégorie de taille
  • Disponible sous la licence Apache 2.0
  • Multilingue (dont langues européennes, chinois, japonais, coréen, hindi, arabe)
  • Grande fenêtre contextuelle de 128K tokens
Mistral 8 X 22B

Mixtral 8x22B a établi une nouvelle norme en matière de performance et d’efficacité, avec seulement 39 milliards de paramètres actifs sur 141 milliards, offrant un rapport coût-efficacité inégalé pour sa taille. Sa capacité native d’appel de fonctions a permis le développement d’applications et la modernisation de la pile technologique à grande échelle.

    Mistral 8 X 7B

    Un mélange épars d’experts (SMoE) de haute qualité avec des poids ouverts. Égalise ou surpasse GPT3.5 sur la plupart des benchmarks standard, en particulier sur les capacités multilingues et le codage.

      Mistral 7B

      Le premier modèle Mistral, conçu pour des performances et une efficacité supérieures. Ce modèle utilise l’attention par requête groupée (GQA) pour une inférence plus rapide, associée à l’attention par fenêtre glissante (SWA), pour traiter efficacement des séquences de longueur arbitraire avec un faible coût d’inférence.

        Ces modèles disposent également de licences commerciales pour les entreprises : Voir les licences commerciales.

        Fine-tuner nos modèles

        Vous pouvez fine-tuner nos modèles de manière simple, efficace et rentable, et ainsi utiliser des modèles plus petits et mieux adaptés pour résoudre vos cas d’utilisation spécifiques. Le fine-tuning peut être effectué via notre code de fine-tuning open-source, ainsi que sur La Plateforme grâce à notre API performante de fine-tuning.

        Fine-tuner les modèles Mistral sur La Plateforme avec l’API Mistral Fine-tuning

        Bénéficiez de l’expertise exceptionnelle de Mistral en matière d’entraînement de modèles grâce à notre service très efficace de fine-tuning pour personnaliser nos modèles open-source et nos modèles commerciaux.

        Utiliser le code de fine-tuning de Mistral

        Le code de fine-tuning de Mistral vous permet de fine-tuner vous-même les modèles open-source de Mistral.

        Tarification à l’utilisation

        Prix en $
        Prix en €
        Modèles premium
        ModèleNom de l'APIDescriptionEntrée (/M tokens)Sortie (/M tokens)
        Mistral Large 24.11mistral-large-latestRaisonnement de haut niveau pour des tâches de grande complexité et des problèmes sophistiqués.$2$6
        Pixtral Largepixtral-large-latestGrand modèle avec des capacités de vision et de raisonnement de pointe.2$6$
        Mistral Small 24.09mistral-small-latestModèle Mistral de pointe entraîné spécifiquement pour les tâches de codage.0,20$0,60$
        Codestralcodestral-latestModèle Mistral de pointe entraîné spécifiquement pour les tâches de codage.0,20$0,6O$
        Ministral 8B 24.10ministral-8b-latestModèle puissant pour les cas d'utilisation embarqués.0,1O$0,1O$
        Ministral 3B 24.10ministral-3b-latestModèle edge le plus efficace.0,04$0,04$
        Mistral Embedmistral-embedSémantique de pointe pour l'extraction de représentations de textes.0,10$
        Mistral Moderation 24.11mistral-moderation-latestUn service de classification pour la modération de contenu textuel.0,10$
        ModèleNom de l'APIDescriptionEntrée (/M tokens)Sortie (/M tokens)
        Mistral Large 24.11mistral-large-latestRaisonnement de haut niveau pour des tâches de grande complexité et des problèmes sophistiqués.1.8€5.4€
        Pixtral Largepixtral-large-latestGrand modèle avec des capacités de vision et de raisonnement de pointe.1,80€5,40€
        Mistral Small 24.09mistral-small-latestModèle Mistral de pointe entraîné spécifiquement pour les tâches de codage.0,18€0,54€
        Codestralcodestral-latestModèle Mistral de pointe entraîné spécifiquement pour les tâches de codage.0,18€0,54€
        Ministral 8B 24.10ministral-8b-latestModèle puissant pour les cas d'utilisation embarqués.0,09€0,09€
        Ministral 3B 24.10ministral-3b-latestModèle edge le plus efficace.0,04€0,04€
        Mistral Embedmistral-embedSémantique de pointe pour l'extraction de représentations de textes.0,10€
        Mistral Moderation 24.11mistral-moderation-latestUn service de classification pour la modération de contenu textuel.0,09€

        Les modèles utilisés avec l’API Batch coûtent 50% moins cher que les prix indiqués ci-dessus.

        Modèles ouverts
        ModèleNom de l'APIDescriptionEntrée (/M tokens)Sortie (/M tokens)
        Pixtral 12Bpixtral-12bPetit modèle de vision.0,15$0,15$
        Mistral NeMomistral-nemoModèle Mistral de pointe entraîné spécifiquement pour la programmation.0,15$0,15$
        Mistral 7Bopen-mistral-7bUn modèle Transformer 7B, déployable rapidement et facilement personnalisable.0,25$0,25$
        Mixtral 8x7Bopen-mixtral-8x7bUn modèle SMoE 7M. Utilise 12,9 milliards de paramètres actifs sur un total de 45 milliards.0,70$0,70$
        Mixtral 8x22Bopen-mixtral-8x22bMixtral 8x22B est actuellement le modèle open source le plus performant. Un modèle SMoE 22M. Utilise seulement 39 milliards de paramètres actifs sur un total de 141 milliards.2$6$
        ModèleNom de l'APIDescriptionEntrée (/M tokens)Sortie (/M tokens)
        Pixtral 12Bpixtral-12bPetit modèle de vision.0,13€0,13€
        Mistral NeMomistral-nemoModèle Mistral de pointe entraîné spécifiquement pour la programmation.0,13€0,13€
        Mistral 7Bopen-mistral-7bUn modèle Transformer 7B, déployable rapidement et facilement personnalisable.0,20€0,20€
        Mixtral 8x7Bopen-mixtral-8x7bUn modèle SMoE 7M. Utilise 12,9 milliards de paramètres actifs sur un total de 45 milliards.0,65€0,65€
        Mixtral 8x22Bopen-mixtral-8x22bMixtral 8x22B est actuellement le modèle open source le plus performant. Un modèle SMoE 22M. Utilise seulement 39 milliards de paramètres actifs sur un total de 141 milliards.1,80€5,60€
        Fine-tuning
        ModèleEntraînement unique (/M tokens)StockageEntrée (/M tokens)Sortie (/M tokens)
        Mistral NeMo1$2$/mois par modèle0,15$0,15$
        Mistral Large 24.119$4$/mois par modèle2$6$
        Mistral Small3$2$/mois par modèle0,20$0,60$
        Codestral3$2$/mois par modèle0,20$0,60$
        ModèleEntraînement unique (/M tokens)StockageEntrée (/M tokens)Sortie (/M tokens)
        Mistral NeMo0,90€1,80€/mois par modèle0,13€0,13€
        Mistral Large 24.118,20€3,80€/mois par modèle1,80€5,40€
        Mistral Small2,70€1,80€/mois par modèle0,18€0,54€
        Codestral2,70€1,90€/mois par modèle0,18€0,54€

        Les tokens sont des représentations numériques de mots ou de parties de mots. En moyenne, un token équivaut à environ 4 caractères ou 0,75 mot en anglais.

        Explication des coûts de fine-tuning

        Mistral AI fournit une API de fine-tuning via La Plateforme, ce qui facilite le fine-tuning de nos modèles open source et commerciaux. Il existe trois coûts liés au fine-tuning :

        • Entraînement unique : Prix par token sur les données que vous souhaitez utiliser pour fine-tuner nos modèles standards
        • Inférence : Prix par token d’entrée/sortie lors de l’utilisation des modèles fine-tunés
        • Stockage : Prix mensuel par modèle pour le stockage (indépendamment de l’utilisation du modèle ; les modèles peuvent être effacés à tout moment)

        Un déploiement où vous le souhaitez

        La Plateforme
        La Plateforme

        Commencez à utiliser les modèles Mistral en quelques clics via notre plateforme pour développeurs hébergée sur l’infrastructure de Mistral. Nos serveurs sont hébergés dans l’UE.

        Fournisseurs de services cloud
        Fournisseurs de services cloud

        Accédez à nos modèles via votre fournisseur de cloud préféré et utilisez vos crédits cloud. Nos modèles ouverts sont actuellement disponibles via nos partenaires cloud (GCP, AWS, Azure, IBM, Snowflake, NVIDIA, Outscale).
        Les modèles de Mistral sont disponibles sur Azure AI, Google Cloud Model Garden, IBM Watsonx, et Snowflake.

        Déploiement autonome
        Déploiement autonome

        Déployez les modèles Mistral sur un cloud virtuel ou sur site. Le déploiement autonome vous offre davantage de personnalisation et de contrôle. Vos données restent dans vos murs. Essayez de déployer nos modèles ouverts et contactez notre équipe pour déployer nos modèles optimisés de la même manière.

        La Plateforme

        Accédez à nos derniers produits via notre plateforme pour développeurs, hébergée en Union Européenne.

        from mistralai.client import MistralClient
        from mistralai.models.chat_completion import ChatMessage
        
        api_key = os.environ["MISTRAL_API_KEY"]
        model = "mistral-tiny"
        
        client = MistralClient(api_key=api_key)
        
        messages = [
            ChatMessage(role="user",
            content="Qui est le peintre français le plus connu ?")
        ]
        
        Conçue pour les développeurs

        La Plateforme est la solution préférée des développeurs pour accéder à tous les modèles de Mistral Al.

        • Notre technologie en accès immédiat : Accédez à nos modèles au meilleur rapport qualité-prix
        • Guides et communauté : Utilisez nos guides et interagissez avec notre communauté pour créer vos applications.
        • Sécurisée et conforme : Vos données sont chiffrées en stockage (AES256) et en transit (TLS 1.2+).
        • Faites vos premiers pas gratuitement ! Aucune carte bancaire requise
        from mistralai.client import MistralClient
        from mistralai.models.chat_completion import ChatMessage
        
        api_key = os.environ["MISTRAL_API_KEY"]
        model = "mistral-tiny"
        
        client = MistralClient(api_key=api_key)
        
        messages = [
            ChatMessage(role="user",
            content="Qui est le peintre français le plus connu ?")
        ]
        

        Nos licences de déploiement autonome

        Nos modèles sont disponibles sous 3 licences différentes, optimisées pour les applications et les cas d’utilisation. Lorsqu’ils sont utilisés sur La Plateforme, tous nos modèles fonctionnent sous licence commerciale. Lorsqu’ils sont déployés en autonomie, nos modèles sont sous Apache 2.0 ou sous MNPL (Mistral Non-Production License) par défaut et prévoient les droits et limitations ci-dessous. Pour en savoir plus sur la MNPL, cliquez ici. Si vous souhaitez acheter une licence commerciale pour un modèle MNPL, veuillez contacter notre équipe commerciale ici.

        Apache 2.0MNPLLicence commerciale Mistral
        Accès aux poids
        Déploiement pour usage individuel et tests non commerciaux
        Fine-tuning et création de dérivés pour essais non commerciaux"
        Déploiement pour des cas d'utilisation en production (usages internes et externes) Illimité Licence basée sur l'infrastructure
        Utilisation de dérivés pour des cas d'utilisation en production (usages internes et externes) Illimité Licence basée sur l'infrastructure