La technologie Mistral

Modèles d’IA générative

Nous avons mis à disposition les modèles ouverts les plus performants pour accélérer l’innovation en IA et faire progresser la science.

Plateforme pour développeurs

Notre plateforme pour développeurs sert nos modèles ouverts et nos modèles optimisés, et vous permet de rapidement y développer des applications. Nous offrons de multiples options de déploiement.

Modèles ouverts

Nous nous engageons à fournir à la communauté de l’IA une technologie ouverte. Nos modèles ouverts fixent la barre de l’efficacité et sont disponibles gratuitement, avec une licence entièrement permissive.

Mistral 7B

Notre tout premier. Un modèle de transformateur de 7B, déployé rapidement et facilement personnalisable. Petit, mais très puissant pour une variété de cas d’utilisation.

  • Maitrise l’anglais et le code
  • Fenêtre de contexte de 32k
Mixtral 8x7B

Un modèle de 7B Mixture-of-Experts (SMoE). Utilise 12.9B paramètres actifs sur 45B au total.

  • Maîtrise l’anglais, le français, l’italien, l’allemand, l’espagnol, et le code
  • Fenêtre de contexte de 32k
Mixtral 8x22B

Mixtral 8x22B est actuellement le modèle ouvert le plus performant. Un modèle SMoE (Mixture-of-Experts) de 22B. Il utilise seulement 39B de paramètres actifs sur un total de 141B."

  • Maîtrise l’anglais, le français, l’italien, l’allemand, l’espagnol et performant en code
  • Fenêtre de contexte de 64k
  • Capacités d’appel de fonction natives
  • Appel de fonction et mode json disponibles sur notre plateforme

Commerciaux

Nos modèles commerciaux optimisés sont conçus pour la performance et sont disponibles via nos options de déploiement flexibles.

Mistral Small

Bonne capacité de raisonnement pour une latence très faible.

  • Parle couramment anglais, français, italien, allemand, espagnol et performant en code
  • Fenêtre de contexte de 32k jetons, avec une excellente récupération pour l’augmentation de la récupération
  • Capacités d’appel de fonction native, sorties JSON
  • Concis, utile, neutre et entièrement modulaire
Mistral Large

Notre meilleur modèle pour traiter les tâches complexes.

  • Parle couramment anglais, français, italien, allemand, espagnol et performant en code
  • Fenêtre de contexte de 32k jetons, avec une excellente récupération pour l’augmentation de la récupération
  • Capacités d’appel de fonction native, sorties JSON
  • Concis, utile, neutre et entièrement modulaire
Mistral Embed

Modèle à l’état de l’art pour représenter des extraits de texte.

Nous avons les meilleurs modèles open source - tous sous licence Apache 2.0.

Nous innovons constamment pour fournir les modèles les plus performants et les plus efficaces.

Cost performance tradeoff
Cost performance tradeoff

Mesures indépendantes

Nous construisons des modèles très efficaces

Nous construisons des modèles qui offrent une efficacité de coût sans précédent pour leur taille respective, offrant ainsi le meilleur rapport performance-coût disponible sur le marché. Mixtral 8x22B est le modèle open source le plus puissant avec un nombre significativement inférieur de paramètres que ses concurrents :

  • Beaucoup plus rapide et performant que tout modèle de 70B
  • Surpasse Command R+ en étant plus de 2,5 fois plus petit
  • Mixtral 8x7B surpasse Llama 2 70B sur la plupart des benchmarks avec une inférence 6 fois plus rapide

Sous licence Apache 2.0

Nos modèles ouverts sont véritablement open source, sous licence Apache 2.0, une licence entièrement permissive qui permet une utilisation sans restriction dans n’importe quel contexte.

La Plateforme

Accédez à nos derniers produits via notre plateforme de développement, hébergée en Union Européenne.

from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage

api_key = os.environ["MISTRAL_API_KEY"]
model = "mistral-tiny"

client = MistralClient(api_key=api_key)

messages = [
    ChatMessage(role="user",
    content="Qui est le peintre français le plus renommé ?")
]
Conçu pour les développeurs

La Plateforme est le moyen préféré des développeurs pour accéder à tous les modèles de Mistral AI.

  • Notre technologie en accès immédiat : Accédez à nos modèles au meilleur rapport qualité-prix
  • Guides et communauté : Utilisez nos guides et interagissez avec notre communauté pour créer vos applications.
  • Sécurisé et conforme : Vos données sont chiffrées en stockage (AES256) et en transit (TLS 1.2+).
from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage

api_key = os.environ["MISTRAL_API_KEY"]
model = "mistral-tiny"

client = MistralClient(api_key=api_key)

messages = [
    ChatMessage(role="user",
    content="Qui est le peintre français le plus renommé ?")
]

Déploiement où vous le souhaitez

La Plateforme
La Plateforme

Commencez à utiliser les modèles Mistral en quelques clics via notre plateforme pour développeurs, hébergée sur l’infrastructure de Mistral. Nos serveurs sont hébergés en Union Européenne.

Fournisseurs de services cloud
Fournisseurs de services cloud

Accédez à nos modèles via votre fournisseur cloud préféré et tirez le meilleur parti de vos crédits. Nos modèles ouverts sont actuellement disponible via nos partenaires (GCP, AWS, Azure, Snowflake, NVIDIA).
Mistral Large est disponible sur Azure AI et Snowflake.

Déploiement en propre
Déploiement en propre

Déployez les modèles Mistral sur un cloud virtuel ou sur site. Le déploiement autonome offre des niveaux plus avancés de personnalisation et de contrôle. Vos données restent dans vos murs. Essayez de déployer nos modèles ouverts et contactez notre équipe pour déployer nos modèles optimisés de la même manière.

Pay-as-you-go pricing

Price in $
Price in €
Open source models
InputOutput
open-mistral-7bA 7B transformer model, fast-deployed and easily customisable.$0.25/1M tokens$0.25/1M tokens
open-mixtral-8x7bA 7B sparse Mixture-of-Experts (SMoE). Uses 12.9B active parameters out of 45B total.$0.7/1M tokens$0.7/1M tokens
open-mixtral-8x22bMixtral 8x22B is currently the most performant open model. A 22B sparse Mixture-of-Experts (SMoE). Uses only 39B active parameters out of 141B.$2/1M tokens$6/1M tokens
InputOutput
open-mistral-7bA 7B transformer model, fast-deployed and easily customisable.0.2€/1M tokens0.2€/1M tokens
open-mixtral-8x7bA 7B sparse Mixture-of-Experts (SMoE). Uses 12.9B active parameters out of 45B total.0.65€/1M tokens0.65€/1M tokens
open-mixtral-8x22bMixtral 8x22B is currently the most performant open model. A 22B sparse Mixture-of-Experts (SMoE). Uses only 39B active parameters out of 141B.1.9€/1M tokens5.6€/1M tokens
Optimized models
InputOutput
mistral-smallCost-efficient reasoning for low-latency workloads.$2/1M tokens$6/1M tokens
mistral-mediumWill soon be deprecated$2.7/1M tokens$8.1/1M tokens
mistral-largeTop-tier reasoning for high-complexity tasks. The most powerful model of the Mistral AI family.$8/1M tokens$24/1M tokens
InputOutput
mistral-smallCost-efficient reasoning for low-latency workloads.1.85€/1M tokens5.55€/1M tokens
mistral-mediumWill soon be deprecated2.5€/1M tokens7.5€/1M tokens
mistral-largeTop-tier reasoning for high-complexity tasks. The most powerful model of the Mistral AI family.7.3€/1M tokens22€/1M tokens
Embeddings
InputOutput
mistral-embedState-of-the-art semantic for extracting representation of text extracts.$0.1/1M tokens$0.1/1M tokens
InputOutput
mistral-embedState-of-the-art semantic for extracting representation of text extracts.0.1€/1M tokens0.1€/1M tokens