Table des matières
La nouvelle IA française Mistral 8x7B va faire couler de l’encre. Nous allons ensemble découvrir les spécificités du tout nouveau LLM Mixtral-8x7B, une IA sur le papier plus puissante que GPT-3.5 et Meta Llama 2, et apprendre comment elle peut bousculer l’industrie des IA génératives et concurrencer ChatGPT.
Il y a seulement 6 mois, Mistral, la startup parisienne, levait 385 millions d’euros en série A, propulsant sa capitalisation à 2 milliards de dollars. Déjà qualifiée de championne européenne de l’UE, l’IA Mistral se positionne en rivale directe d’OpenAI, le colosse derrière ChatGPT.
Mistral vient de relâcher son dernier LLM, Mixtral-8x7B, de manière insolite : un lien Torrent sur X sans explication. Cette audace a suscité des éloges et des memes sur les réseaux sociaux, soulignant la compréhension de Mistral par son audience principale composée d’ingénieurs.
Le modèle utilise la technique « Mixture of Experts, » combinant différents modèles spécialisés dans des catégories de tâches distinctes. Avec un réseau routeur pour traiter les tokens d’input, il choisit le groupe de paramètres optimal, offrant ainsi une réponse plus rapide malgré ses 45 milliards de paramètres.
Les benchmarks partagés dans l’article montrent que cet algorithme surpasse des LLM américains de renom, suscitant des retours élogieux pour sa vitesse et son côté ludique.
Mixtral-8x7B se distingue en tant que modèle open source, disponible en téléchargement gratuit sous licence Apache 2.0. Mistral, guidé par une approche ouverte, responsable et décentralisée de la technologie, supprime les barrières de sécurité, offrant une expérience sans filtre de censure.
La plateforme développeur de Mistral, désormais en phase bêta, propose l’accès à l’API du modèle Mistral 7B (Mistral-tiny) et du nouveau modèle Mixtral 8x7B (Mistral-small). Un troisième modèle Mistral-medium, en version alpha, promet des performances encore supérieures.
Ces modèles, pré-entraînés sur des données ouvertes, prennent en charge plusieurs langages et le code informatique. L’API est compatible avec différentes interfaces de conversation, avec des bibliothèques client disponibles pour Python et Javascript.
Il vous est possible Mixtral 8x7B sur HuggingFace dès maintenant, bien que cette version soit limitée par des filtres de sécurité. Pour des alternatives, il est conseillé d’explorer Perplexity Labs, Poe, Vercel, et Replicate, ouvrant de nouvelles perspectives pour l’exploration des capacités de cette IA révolutionnaire.