La technologie Mistral

Modèles d’IA générative

Nous avons mis à disposition les modèles ouverts les plus performants pour accélérer l’innovation en IA et faire progresser la science.

Plateforme pour développeurs

Notre plateforme pour développeurs sert nos modèles ouverts et nos modèles optimisés, et vous permet de rapidement y développer des applications. Commencez gratuitement !

Modèles premium

Modèles de pointe de différentes tailles, disponibles pour expérimenter sous la licence de recherche Mistral et passer en production avec la licence commerciale.

Mistral Small 24.09

Modèle de petite taille de qualité entreprise.

  • Le modèle le plus puissant de sa taille
  • Disponible sous la licence de recherche Mistral
  • Fenêtre de contexte de 128K tokens
  • Modèle économique et rapide pour une large gamme de cas d’utilisation tels que la traduction, le résumé et l’analyse de sentiment
Mistral Large 2

Raisonnement de haut niveau pour les tâches de haute complexité, pour vos besoins les plus sophistiqués.

  • Multilingue (incl. langues européennes, chinois, japonais, coréen, hindi, arabe)
  • Grande fenêtre de contexte de 128K tokens
  • Capacités d’appel de fonctions natives et sorties JSON
  • Haute compétence en codage (80+ langages de programmation)
Codestral

Modèle Mistral de pointe entraîné spécifiquement pour les tâches de codage.

  • Entraîné sur 80+ langages de programmation (incl. Python, Java, C, C++, PHP, Bash)
  • Optimisé pour une faible latence : Bien plus petit que les modèles de codage concurrents
  • Fenêtre de contexte de 32k tokens
Mistral Embed

Sémantique de pointe pour l’extraction de représentations de textes.

Ministral 3B 24.10

Notre modèle edge le plus efficace.
Le plus performant de sa catégorie, idéal pour l’informatique embarquée à faible consommation et faible latence.

  • Fenêtre de contexte de 128k tokens
  • Très performant dans l’appel de fonctions pour les flux de travail agentiques
  • Idéal pour la quantification sans perte et l’adaptation à des cas d’utilisation spécifiques
Ministral 8B 24.10

Notre modèle edge le plus puissant. Successeur de Mistral 7B.
Établit la norme en matière de bon sens, de raisonnement et d’appel de fonctions dans la catégorie des moins de 10B.

  • Fenêtre de contexte de 128k tokens
  • Idéal pour l’informatique embarquée et les cas d’utilisation edge
  • Très performant en raisonnement, appel de fonctions et bon sens

Pour plus de détails sur les différentes options de tarification, consultez notre page de tarification ici : Voir les tarifs.

Modèles gratuits

Libres d’utilisation sous la licence Apache 2.0.

Derniers modèles
Pixtral 12B

Modèle léger capable de version.

  • Analyser, rechercher, examiner et mieux comprendre les images
  • Disponible sous la licence Apache 2.0
  • Déployez dans votre propre environnement pour ne pas avoir à télécharger vos fichiers chez un fournisseur tiers
Mathstral

Variante de Mistral-7B optimisée pour les problèmes de mathématiques avancés.

  • Fenêtre de contexte de 32 000 tokens
  • 7 milliards de paramètres
  • Disponible sous licence Apache 2.0
Codestral Mamba

Un modèle de langage Mamba2 conçu pour les tâches de codage.

  • Fenêtre de contexte de 256 000 tokens
  • 7,3 milliards de paramètres
  • Disponible sous licence Apache 2.0
Mistral NeMo

Un modèle Mistral de pointe de petite taille d’état de l’art construit en collaboration avec NVIDIA.

  • Le modèle le plus puissant de sa catégorie de taille
  • Disponible sous licence Apache 2.0
  • Multilingue (incl. langues européennes, chinois, japonais, coréen, hindi, arabe)
  • Grande fenêtre de contexte de 128K tokens
Mistral 8 X 22B

Mixtral 8x22B a établi un nouveau standard pour la performance et l’efficacité, avec seulement 39 milliards de paramètres actifs sur 141 milliards, offrant une efficacité de coût incomparable pour sa taille. Il est en effet natif pour l’appel de fonction, ce qui permet le développement d’applications et le modernisation de la techno-stack à grande échelle.

    Mistral 8 X 7B

    Un mélange ouvert de spécialistes haut de gamme avec des poids ouverts. Correspond ou dépasse GPT3.5 sur la plupart des benchmarks standard, particulièrement en multilinguisme et en code.

      Mistral 7B

      Le premier modèle Mistral, conçu pour une performance et une efficacité supérieures. Le modèle utilise l’attention glissante (GQA) pour un inférence plus rapide, couplée à l’attention glissante (SWA) pour gérer des séquences de longueur arbitraire avec un coût d’inférence réduit.

        Ces modèles ont également des licences commerciales pour des besoins commerciaux : Explorez les licences commerciales.

        Affiner nos modèles

        Nous vous permettons d’affiner nos modèles de manière simple, efficace et économique, et d’utiliser ainsi des modèles plus petits et mieux adaptés pour résoudre vos cas d’utilisation spécifiques. L’affinage peut être effectué avec notre code open-source d’affinage ainsi que sur La Plateforme avec notre API d’affinage efficace.

        Affiner les modèles de Mistral sur La Plateforme avec l’API d’affinage de Mistral

        Tirez parti de l’expertise unique de Mistral en matière de formation de modèles en utilisant notre service d’affinage hautement efficace pour spécialiser à la fois nos modèles open-source et commerciaux.

        Utiliser le code d’affinage de Mistral

        Profitez du code d’affinage de Mistral pour effectuer l’affinage sur les modèles open-source de Mistral par vous-même.

        Tarification à l’utilisation

        Prix en $
        Prix en €
        Modèles premium
        ModèleNom de l'APIDescriptionEntrée (/M tokens)Sortie (/M tokens)
        Mistral Large 2mistral-large-2407Modèle Mistral de pointe entraîné spécifiquement pour les tâches de codage.$2$6
        Mistral Small 24.09mistral-small-2409Modèle Mistral de pointe entraîné spécifiquement pour les tâches de codage.$0.2$0.6
        Codestralcodestral-2405Modèle Mistral de pointe entraîné spécifiquement pour les tâches de codage.$0.2$0.6
        Mistral Embedmistral-embedSémantique de pointe pour l'extraction de représentations de textes.$0.1
        Ministral 3B 24.10ministral-3b-latestModèle edge le plus efficace.$0.04$0.04
        Ministral 8B 24.10ministral-8b-latestModèle puissant pour les cas d'utilisation embarqués.$0.1$0.1
        ModèleNom de l'APIDescriptionEntrée (/M tokens)Sortie (/M tokens)
        Mistral Large 2mistral-large-2407Modèle Mistral de pointe entraîné spécifiquement pour les tâches de codage.1.8€5.4€
        Mistral Small 24.09mistral-small-2409Modèle Mistral de pointe entraîné spécifiquement pour les tâches de codage.0.18€0.54€
        Codestralcodestral-2405Modèle Mistral de pointe entraîné spécifiquement pour les tâches de codage.0.18€0.54€
        Mistral Embedmistral-embedSémantique de pointe pour l'extraction de représentations de textes.0.09€
        Ministral 3B 24.10ministral-3b-latestModèle edge le plus efficace.0.04€0.04€
        Ministral 8B 24.10ministral-8b-latestModèle puissant pour les cas d'utilisation embarqués.0.09€0.09€
        Modèles gratuits
        ModèleNom de l'APIDescriptionEntrée (/M tokens)Sortie (/M tokens)
        Pixtral 12Bpixtral-12bModèle léger capable de version.$0.15$0.15
        Mistral NeMomistral-nemoModèle Mistral de pointe entraîné spécifiquement pour les tâches de codage.$0.15$0.15
        Mistral 7Bopen-mistral-7bUn modèle transformateur 7B, déployé rapidement et facilement personnalisable.$0.25$0.25
        Mixtral 8x7Bopen-mixtral-8x7bUn modèle SMoE 7B creux. Utilise 12.9B de paramètres actifs sur un total de 45B.$0.7$0.7
        Mixtral 8x22Bopen-mixtral-8x22bMixtral 8x22B est actuellement le modèle open source le plus performant. Un modèle SMoE 22B creux. Utilise seulement 39B de paramètres actifs sur un total de 141B.$2$6
        ModèleNom de l'APIDescriptionEntrée (/M tokens)Sortie (/M tokens)
        Pixtral 12Bpixtral-12bModèle léger capable de version.0.13€0.13€
        Mistral NeMomistral-nemoModèle Mistral de pointe entraîné spécifiquement pour les tâches de codage.0.13€0.13€
        Mistral 7Bopen-mistral-7bUn modèle transformateur 7B, déployé rapidement et facilement personnalisable.0.2€0.2€
        Mixtral 8x7Bopen-mixtral-8x7bUn modèle SMoE 7B creux. Utilise 12.9B de paramètres actifs sur un total de 45B.0.65€0.65€
        Mixtral 8x22Bopen-mixtral-8x22bMixtral 8x22B est actuellement le modèle open source le plus performant. Un modèle SMoE 22B creux. Utilise seulement 39B de paramètres actifs sur un total de 141B.1.8€5.6€
        Affinage
        ModèleEntraînement unique (/M tokens)StockageEntrée (/M tokens)Sortie (/M tokens)
        Mistral NeMo$1$2 par mois par modèle$0.15$0.15
        Mistral Large 2$9$4 par mois par modèle$2$6
        Mistral Small$3$2 par mois par modèle$0.2$0.6
        Codestral$3$2 par mois par modèle$0.2$0.6
        ModèleEntraînement unique (/M tokens)StockageEntrée (/M tokens)Sortie (/M tokens)
        Mistral NeMo0.9€1.8€ par mois par modèle0.13€0.13€
        Mistral Large 28.2€3.8€ par mois par modèle1.8€5.4€
        Mistral Small2.7€1.8€ par mois par modèle0.18€0.54€
        Codestral2.7€1.9€ par mois par modèle0.18€0.54€

        Les tokens sont des représentations numériques de mots ou de parties de mots. En moyenne, un token équivaut à environ 4 caractères ou 0,75 mot en anglais.

        Explication des coûts d’affinage

        Mistral AI fournit une API d’affinage via La Plateforme, ce qui facilite l’affinage de nos modèles open-source et commerciaux. Il y a trois coûts liés à l’affinage :

        • Entraînement unique : Prix par token sur les données que vous souhaitez utiliser pour affiner nos modèles standards
        • Inférence : Prix par token d’entrée/sortie lors de l’utilisation des modèles affinés
        • Stockage : Prix par mois par modèle pour le stockage (indépendamment de l’utilisation du modèle ; les modèles peuvent être supprimés à tout moment)

        Déploiement où vous le souhaitez

        La Plateforme
        La Plateforme

        Commencez à utiliser les modèles Mistral en quelques clics via notre plateforme pour développeurs, hébergée sur l’infrastructure de Mistral. Nos serveurs sont hébergés en Union Européenne.

        Fournisseurs de services cloud
        Fournisseurs de services cloud

        Accédez à nos modèles via votre fournisseur cloud préféré et tirez le meilleur parti de vos crédits. Nos modèles ouverts sont actuellement disponible via nos partenaires (GCP, AWS, Azure, IBM, Snowflake, NVIDIA, Outscale).
        Mistral Large est disponible sur Azure AI, Google Cloud Model Garden, IBM Watsonx, et Snowflake.

        Déploiement en propre
        Déploiement en propre

        Déployez les modèles Mistral sur un cloud virtuel ou sur site. Le déploiement autonome offre des niveaux plus avancés de personnalisation et de contrôle. Vos données restent dans vos murs. Essayez de déployer nos modèles ouverts et contactez notre équipe pour déployer nos modèles optimisés de la même manière.

        La Plateforme

        Accédez à nos derniers produits via notre plateforme de développement, hébergée en Union Européenne.

        from mistralai.client import MistralClient
        from mistralai.models.chat_completion import ChatMessage
        
        api_key = os.environ["MISTRAL_API_KEY"]
        model = "mistral-tiny"
        
        client = MistralClient(api_key=api_key)
        
        messages = [
            ChatMessage(role="user",
            content="Qui est le peintre français le plus renommé ?")
        ]
        
        Conçu pour les développeurs

        La Plateforme est le moyen préféré des développeurs pour accéder à tous les modèles de Mistral AI.

        • Notre technologie en accès immédiat : Accédez à nos modèles au meilleur rapport qualité-prix
        • Guides et communauté : Utilisez nos guides et interagissez avec notre communauté pour créer vos applications.
        • Sécurisé et conforme : Vos données sont chiffrées en stockage (AES256) et en transit (TLS 1.2+).
        • Commencez gratuitement ! Pas besoin de carte bancaire
        from mistralai.client import MistralClient
        from mistralai.models.chat_completion import ChatMessage
        
        api_key = os.environ["MISTRAL_API_KEY"]
        model = "mistral-tiny"
        
        client = MistralClient(api_key=api_key)
        
        messages = [
            ChatMessage(role="user",
            content="Qui est le peintre français le plus renommé ?")
        ]
        

        Nos licences d’auto-déploiement

        Nos modèles sont disponibles sous 3 licences différentes, optimisées pour les applications et les intentions d’utilisation. Lorsqu’ils sont servis sur La Plateforme, tous nos modèles fonctionnent sous une licence commerciale. Lorsqu’ils sont auto-déployés, nos modèles sont sous Apache 2.0 ou sous MNPL (Mistral Non-Production License) par défaut et viennent avec les droits et limitations ci-dessous. Vous pouvez en savoir plus sur la MNPL ici. Si vous souhaitez acheter une licence commerciale pour un modèle MNPL, veuillez contacter notre équipe commerciale ici.

        Apache 2.0MNPLLicence commerciale Mistral
        Accès aux poids
        Déploiement pour usage individuel et tests non commerciaux
        Affinage et création de dérivés pour tests non commerciaux
        Déploiement pour des cas d'utilisation en production (usages internes et externes) Illimité Licence basée sur l'infrastructure
        Utilisation de dérivés pour des cas d'utilisation en production (usages internes et externes) Illimité Licence basée sur l'infrastructure