La technologie Mistral

Modèles d’IA générative

Nous avons mis à disposition les modèles ouverts les plus performants pour accélérer l’innovation en IA et faire progresser la science.

Plateforme pour développeurs

Notre plateforme pour développeurs sert nos modèles ouverts et nos modèles optimisés, et vous permet de rapidement y développer des applications. Nous offrons de multiples options de déploiement.

Modèles ouverts

Nous nous engageons à fournir à la communauté de l’IA une technologie ouverte. Nos modèles ouverts fixent la barre de l’efficacité et sont disponibles gratuitement, avec une licence entièrement permissive.

Mistral 7B

Notre tout premier. Un modèle de transformateur de 7B, déployé rapidement et facilement personnalisable. Petit, mais très puissant pour une variété de cas d’utilisation.

  • Maitrise l’anglais et le code
  • Fenêtre de contexte de 32k
Mixtral 8x7B

Un modèle de 7B Mixture-of-Experts (SMoE). Utilise 12.9B paramètres actifs sur 45B au total.

  • Maîtrise l’anglais, le français, l’italien, l’allemand, l’espagnol, et le code
  • Fenêtre de contexte de 32k
Mixtral 8x22B

Mixtral 8x22B est actuellement le modèle ouvert le plus performant. Un modèle SMoE (Mixture-of-Experts) de 22B. Il utilise seulement 39B de paramètres actifs sur un total de 141B."

  • Maîtrise l’anglais, le français, l’italien, l’allemand, l’espagnol et performant en code
  • Fenêtre de contexte de 64k
  • Capacités d’appel de fonction natives
  • Appel de fonction et mode json disponibles sur notre plateforme

Commerciaux

Nos modèles commerciaux optimisés sont conçus pour la performance et sont disponibles via nos options de déploiement flexibles.

Mistral Small

Bonne capacité de raisonnement pour une latence très faible.

  • Parle couramment anglais, français, italien, allemand, espagnol et performant en code
  • Fenêtre de contexte de 32k jetons, avec une excellente récupération pour l’augmentation de la récupération
  • Capacités d’appel de fonction native, sorties JSON
  • Concis, utile, neutre et entièrement modulaire
Mistral Large

Notre meilleur modèle pour traiter les tâches complexes.

  • Parle couramment anglais, français, italien, allemand, espagnol et performant en code
  • Fenêtre de contexte de 32k jetons, avec une excellente récupération pour l’augmentation de la récupération
  • Capacités d’appel de fonction native, sorties JSON
  • Concis, utile, neutre et entièrement modulaire
Mistral Embed

Modèle à l’état de l’art pour représenter des extraits de texte.

Codestral

Codestral est un modèle d’IA générative open-weight conçu explicitement pour les tâches de génération de code. Il aide les développeurs à écrire et interagir avec le code via une API de complétion et d’instruction partagée. Maîtrisant le code et l’anglais, il peut être utilisé pour concevoir des applications AI avancées pour les développeurs de logiciels.

Codestral 22B

Modèle Mistral de pointe spécifiquement formé pour les tâches de codage.

Mistral codestral 22B
  • Formé sur plus de 80 langages de programmation (incl. Python, Java, C, C++, PHP, Bash)
  • Optimisé pour une faible latence : Bien plus petit que les modèles concurrents de génération de code
  • Version de base (pour la complétion et la génération de code) via La Plateforme ainsi que via nos partenaires et version Instruct via Le Chat
  • Fenêtre de contexte de 32k
  • Disponible sous Licence Non-Production de Mistral AI
Mistral codestral 22B

Nous avons les meilleurs modèles open source - tous sous licence Apache 2.0.

Nous innovons constamment pour fournir les modèles les plus performants et les plus efficaces.

Cost performance tradeoff
Cost performance tradeoff

Mesures indépendantes

Nous construisons des modèles très efficaces

Nous construisons des modèles qui offrent une efficacité de coût sans précédent pour leur taille respective, offrant ainsi le meilleur rapport performance-coût disponible sur le marché. Mixtral 8x22B est le modèle open source le plus puissant avec un nombre significativement inférieur de paramètres que ses concurrents :

  • Beaucoup plus rapide et performant que tout modèle de 70B
  • Surpasse Command R+ en étant plus de 2,5 fois plus petit
  • Mixtral 8x7B surpasse Llama 2 70B sur la plupart des benchmarks avec une inférence 6 fois plus rapide

Sous licence Apache 2.0

Nos modèles ouverts sont véritablement open source, sous licence Apache 2.0, une licence entièrement permissive qui permet une utilisation sans restriction dans n’importe quel contexte.

La Plateforme

Accédez à nos derniers produits via notre plateforme de développement, hébergée en Union Européenne.

from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage

api_key = os.environ["MISTRAL_API_KEY"]
model = "mistral-tiny"

client = MistralClient(api_key=api_key)

messages = [
    ChatMessage(role="user",
    content="Qui est le peintre français le plus renommé ?")
]
Conçu pour les développeurs

La Plateforme est le moyen préféré des développeurs pour accéder à tous les modèles de Mistral AI.

  • Notre technologie en accès immédiat : Accédez à nos modèles au meilleur rapport qualité-prix
  • Guides et communauté : Utilisez nos guides et interagissez avec notre communauté pour créer vos applications.
  • Sécurisé et conforme : Vos données sont chiffrées en stockage (AES256) et en transit (TLS 1.2+).
from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage

api_key = os.environ["MISTRAL_API_KEY"]
model = "mistral-tiny"

client = MistralClient(api_key=api_key)

messages = [
    ChatMessage(role="user",
    content="Qui est le peintre français le plus renommé ?")
]

Affiner nos modèles

Nous vous permettons d’affiner nos modèles de manière simple, efficace et économique, et d’utiliser ainsi des modèles plus petits et mieux adaptés pour résoudre vos cas d’utilisation spécifiques. L’affinage peut être effectué avec notre code open-source d’affinage ainsi que sur La Plateforme avec notre API d’affinage efficace.

Utiliser le code d’affinage de Mistral

Profitez du code d’affinage de Mistral pour effectuer l’affinage sur les modèles open-source de Mistral par vous-même.

Affiner les modèles de Mistral sur La Plateforme avec l’API d’affinage de Mistral

Tirez parti de l’expertise unique de Mistral en matière de formation de modèles en utilisant notre service d’affinage hautement efficace pour spécialiser à la fois nos modèles open-source et commerciaux.

Déploiement où vous le souhaitez

La Plateforme
La Plateforme

Commencez à utiliser les modèles Mistral en quelques clics via notre plateforme pour développeurs, hébergée sur l’infrastructure de Mistral. Nos serveurs sont hébergés en Union Européenne.

Fournisseurs de services cloud
Fournisseurs de services cloud

Accédez à nos modèles via votre fournisseur cloud préféré et tirez le meilleur parti de vos crédits. Nos modèles ouverts sont actuellement disponible via nos partenaires (GCP, AWS, Azure, Snowflake, NVIDIA).
Mistral Large est disponible sur Azure AI et Snowflake.

Déploiement en propre
Déploiement en propre

Déployez les modèles Mistral sur un cloud virtuel ou sur site. Le déploiement autonome offre des niveaux plus avancés de personnalisation et de contrôle. Vos données restent dans vos murs. Essayez de déployer nos modèles ouverts et contactez notre équipe pour déployer nos modèles optimisés de la même manière.

Tarification à l’utilisation

Price in $
Price in €
Modèles open source
EntréeSortie
open-mistral-nemo-2407Mistral NeMo est notre dernier modèle 12B développé avec NVIDIA.$0.3 /1M tokens$0.3 /1M tokens
open-mistral-7bUn modèle 7B, déployé rapidement et facilement personnalisable.$0.25 /1M tokens$0.25 /1M tokens
open-mixtral-8x7bUn modèle Sparse Mixture-of-Experts (SMoE) de 7B. Utilise 12.9B de paramètres actifs sur 45B.$0.7 /1M tokens$0.7 /1M tokens
open-mixtral-8x22bLe modèle ouvert le plus performant, Mixtral 8x22B est un modèle Sparse Mixture-of-Experts (SMoE) de 22B. Utilise seulement 39B paramètres actifs sur 141B.$2 /1M tokens$6 /1M tokens
EntréeSortie
open-mistral-nemo-2407Mistral NeMo est notre dernier modèle 12B développé avec NVIDIA.0.27€ /1M tokens0.27€ /1M tokens
open-mistral-7bUn modèle 7B, déployé rapidement et facilement personnalisable.0.2€ /1M tokens0.2€ /1M tokens
open-mixtral-8x7bUn modèle Sparse Mixture-of-Experts (SMoE) de 7B. Utilise 12.9B de paramètres actifs sur 45B.0.65€ /1M tokens0.65€ /1M tokens
open-mixtral-8x22bLe modèle ouvert le plus performant, Mixtral 8x22B est un modèle Sparse Mixture-of-Experts (SMoE) de 22B. Utilise seulement 39B paramètres actifs sur 141B.1.9€ /1M tokens5.6€ /1M tokens
Modèles optimisés
EntréeSortie
mistral-small-2402Excellent rapport coût/puissance pour les faibles latences.$1 /1M tokens$3 /1M tokens
codestral-2405L'état de l'art entraîné spécifiquement pour les tâches liées au code.$1 /1M tokens$3 /1M tokens
mistral-medium-2312*Prochainement déprécié*$2.7 /1M tokens$8.1 /1M tokens
mistral-large-2402Un raisonnement de haut niveau pour les tâches complexes. Le modèle le plus puissant de la famille Mistral AI.$4 /1M tokens$12 /1M tokens
EntréeSortie
mistral-small-2402Excellent rapport coût/puissance pour les faibles latences.0.9€ /1M tokens2.8€ /1M tokens
codestral-2405L'état de l'art entraîné spécifiquement pour les tâches liées au code.0.9€ /1M tokens2.8€ /1M tokens
mistral-medium-2312*Prochainement déprécié*2.5€ /1M tokens7.5€ /1M tokens
mistral-large-2402Un raisonnement de haut niveau pour les tâches complexes. Le modèle le plus puissant de la famille Mistral AI.3.8€ /1M tokens11.3€ /1M tokens
Intégrations
EntréeSortie
mistral-embedModèle sémantique pour l'extraction de représentations de textes.$0.1 /1M tokens$0.1 /1M tokens
EntréeSortie
mistral-embedModèle sémantique pour l'extraction de représentations de textes.0.1€ /1M tokens0.1€ /1M tokens
Modèles de fine-tuning
Entraînement uniqueStockageEntréeSortie
Mistral 7B$2 /1M tokens$2 par mois par modèle$0.75 /1M tokens$0.75 /1M tokens
Mistral Small$4 /1M tokens$2 par mois par modèle$2.5 /1M tokens$7.5 /1M tokens
Entraînement uniqueStockageEntréeSortie
Mistral 7B1.9€ /1M tokens1.9€ par mois par modèle0.7€ /1M tokens0.7€ /1M tokens
Mistral Small3.8€ /1M tokens1.9€ par mois par modèle2.3€ /1M tokens7€ /1M tokens
Explication des coûts d’affinage

Mistral AI fournit une API d’affinage via La Plateforme, ce qui facilite l’affinage de nos modèles open-source et commerciaux. Il y a trois coûts liés à l’affinage :

  • Entraînement unique: Prix par token sur les données que vous souhaitez utiliser pour affiner nos modèles standards ; frais minimum par tâche d’affinage de 4 $
  • Inférence: Prix par token d’entrée/sortie lors de l’utilisation des modèles affinés
  • Stockage: Prix par mois par modèle pour le stockage (indépendamment de l’utilisation du modèle ; les modèles peuvent être supprimés à tout moment)