Le succès fulgurant de Mistral s’est volatilisé en 24 heures – Together AI l’a détrôné en proposant une version moins chère et plus rapide de son modèle de langage Mixture of Experts (autrement de « mélange d’experts » abrégé MoE dans sa version originale), accessible en libre accès.
Together AI a publié un modèle Mistral MoE hébergé à 100 tokens/sec qui est moins coûteux que l’API hébergée de Mistral en raison de son infrastructure existante et de son nouveau moteur d’inférence Together.
On peut se poser la question de savoir comment Mistral maintiendra son engagement en faveur de modèles open-source commerciaux permissifs alors qu’il est aux prises avec le fardeau financier des coûts de calcul.
Sachez que la vidéo ci-jointe n’est pas accélérée.
Rejoignez des milliers de chercheurs et d’ingénieurs de réputation mondiale de Google, Stanford, OpenAI et Meta pour rester à la pointe de l’IA http://aitidbits.ai