Commencez à utiliser les modèles Mistral en quelques clics via notre plateforme pour développeurs, hébergée sur l’infrastructure de Mistral. Nos serveurs sont hébergés en Union Européenne.
Nous avons mis à disposition les modèles ouverts les plus performants pour accélérer l’innovation en IA et faire progresser la science.
Notre plateforme pour développeurs sert nos modèles ouverts et nos modèles optimisés, et vous permet de rapidement y développer des applications. Nous offrons de multiples options de déploiement.
Nous nous engageons à fournir à la communauté de l’IA une technologie ouverte. Nos modèles ouverts fixent la barre de l’efficacité et sont disponibles gratuitement, avec une licence entièrement permissive.
Notre tout premier. Un modèle de transformateur de 7B, déployé rapidement et facilement personnalisable. Petit, mais très puissant pour une variété de cas d’utilisation.
Un modèle de 7B Mixture-of-Experts (SMoE). Utilise 12.9B paramètres actifs sur 45B au total.
Mixtral 8x22B est actuellement le modèle ouvert le plus performant. Un modèle SMoE (Mixture-of-Experts) de 22B. Il utilise seulement 39B de paramètres actifs sur un total de 141B."
Nos modèles commerciaux optimisés sont conçus pour la performance et sont disponibles via nos options de déploiement flexibles.
Bonne capacité de raisonnement pour une latence très faible.
Notre meilleur modèle pour traiter les tâches complexes.
Modèle à l’état de l’art pour représenter des extraits de texte.
Nous innovons constamment pour fournir les modèles les plus performants et les plus efficaces.
Nous construisons des modèles qui offrent une efficacité de coût sans précédent pour leur taille respective, offrant ainsi le meilleur rapport performance-coût disponible sur le marché. Mixtral 8x22B est le modèle open source le plus puissant avec un nombre significativement inférieur de paramètres que ses concurrents :
Nos modèles ouverts sont véritablement open source, sous licence Apache 2.0, une licence entièrement permissive qui permet une utilisation sans restriction dans n’importe quel contexte.
Accédez à nos derniers produits via notre plateforme de développement, hébergée en Union Européenne.
from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage
api_key = os.environ["MISTRAL_API_KEY"]
model = "mistral-tiny"
client = MistralClient(api_key=api_key)
messages = [
ChatMessage(role="user",
content="Qui est le peintre français le plus renommé ?")
]
La Plateforme est le moyen préféré des développeurs pour accéder à tous les modèles de Mistral AI.
from mistralai.client import MistralClient
from mistralai.models.chat_completion import ChatMessage
api_key = os.environ["MISTRAL_API_KEY"]
model = "mistral-tiny"
client = MistralClient(api_key=api_key)
messages = [
ChatMessage(role="user",
content="Qui est le peintre français le plus renommé ?")
]
Input | Output | ||
---|---|---|---|
open-mistral-7b | A 7B transformer model, fast-deployed and easily customisable. | $0.25 /1M tokens | $0.25 /1M tokens |
open-mixtral-8x7b | A 7B sparse Mixture-of-Experts (SMoE). Uses 12.9B active parameters out of 45B total. | $0.7 /1M tokens | $0.7 /1M tokens |
open-mixtral-8x22b | Mixtral 8x22B is currently the most performant open model. A 22B sparse Mixture-of-Experts (SMoE). Uses only 39B active parameters out of 141B. | $2 /1M tokens | $6 /1M tokens |
Input | Output | ||
---|---|---|---|
open-mistral-7b | A 7B transformer model, fast-deployed and easily customisable. | 0.2€ /1M tokens | 0.2€ /1M tokens |
open-mixtral-8x7b | A 7B sparse Mixture-of-Experts (SMoE). Uses 12.9B active parameters out of 45B total. | 0.65€ /1M tokens | 0.65€ /1M tokens |
open-mixtral-8x22b | Mixtral 8x22B is currently the most performant open model. A 22B sparse Mixture-of-Experts (SMoE). Uses only 39B active parameters out of 141B. | 1.9€ /1M tokens | 5.6€ /1M tokens |
Input | Output | ||
---|---|---|---|
mistral-small | Cost-efficient reasoning for low-latency workloads. | $1 /1M tokens | $3 /1M tokens |
mistral-medium | Will soon be deprecated | $2.7 /1M tokens | $8.1 /1M tokens |
mistral-large | Top-tier reasoning for high-complexity tasks. The most powerful model of the Mistral AI family. | $4 /1M tokens | $12 /1M tokens |
Input | Output | ||
---|---|---|---|
mistral-small | Cost-efficient reasoning for low-latency workloads. | 0.9€ /1M tokens | 2.8€ /1M tokens |
mistral-medium | Will soon be deprecated | 2.5€ /1M tokens | 7.5€ /1M tokens |
mistral-large | Top-tier reasoning for high-complexity tasks. The most powerful model of the Mistral AI family. | 3.8€ /1M tokens | 11.3€ /1M tokens |
Input | Output | ||
---|---|---|---|
mistral-embed | State-of-the-art semantic for extracting representation of text extracts. | $0.1 /1M tokens | $0.1 /1M tokens |
Input | Output | ||
---|---|---|---|
mistral-embed | State-of-the-art semantic for extracting representation of text extracts. | 0.1€ /1M tokens | 0.1€ /1M tokens |