Boostez vos prompts à la sauce RaR
L’Université de Los Angeles enseigne à l’IA à dire « Hein ? » en numérique Dans une avancée révolutionnaire pour la communication entre l’intelligence artificielle et les humains, l’Université de Californie à Los Angeles (UCLA) a dévoilé une technique de prompt novatrice baptisée « Rephrase and Respond » (RaR), qui promet d’augmenter de manière significative la précision des réponses […]
UltraFastBERT : obtention d’une accélération d’inférence 78x en utilisant 0,3 % des neurones
Les LLM (pour Large Language Models ou « Grand Modèles de Langage » en français) peu efficaces risquent bientôt de devenir un vestige du passé grâce au nouveau UltraFastBERT de l’ETH Zurich, qui affiche une vitesse de 78x en n’utilisant que 0,3% des neurones d’un modèle de langage 🤯 Imaginez un modèle BERT si efficace […]
Google dévoile l’IA multimodale révolutionnaire « Gemini »
🔥 Breaking : Google vient de dévoiler Gemini, son IA multimodale la plus avancée, qui surpasse les humains et GPT-4 sur des benchmarks complexes, en prévision de son lancement l’année prochaine, selon les rumeurs. Gemini est disponible en trois versions : Ultra, Pro et Nano, chacune optimisée pour des tâches spécifiques. —> Gemini Ultra est […]
HackAPrompt
Une expérience mondiale de prompt hacking (comprendre « bidouillage d’invites » qui propose de découvrir des astuces en matière de rédaction d’invites pour les IA) a permis de générer plus de 600 000 invites trompeuses pour contourner les garde-fous des modèles de langage les plus performants. Le prompt hacking est une méthode détournée qui consiste à manipuler […]
IA Maîtrise Pokémon par Apprentissage
Oubliez les livrets scolaires pour vos week-ends studieux. Cette vidéo bien montée explique en toute élégance le principe de l’apprentissage par renforcement à l’aide de 5 années de jeu Pokémon. Cette vidéo montre le périple d’une IA qui joue à 20 000 jeux simultanément, en commençant par ne rien savoir du jeu et en appuyant […]
Techniques d’incitation fondées sur la recherche pour stimuler les LLM
Au cours des trois derniers mois seulement, plus de dix articles ont été publiés, décrivant de nouvelles techniques d’incitation, ce qui a permis d’améliorer considérablement les performances des LLM (pour Large Language Models ou « Grand Modèles de Langage » en français). Il y a deux semaines, un article révolutionnaire de Microsoft a démontré qu’un […]
Perf Review Pal: Révolution RH
C’est la saison des bilans de performance et de très nombreuses personnes ont du mal à rédiger les questionnaires les plus simples. Voici Perf Review Pal, un TPG. Perf Review Pal a un accès aux meilleures pratiques et aux articles que je considère comme utiles pour la rédaction des entretiens d’évaluation. Il permet de transformer […]
Mistral La plateforme: Une nouvelle plateforme d’API pour servir les modèles Mistral
Imaginez-vous exécuter un modèle de langage performant localement, comme vous le feriez avec Excel ou Chrome. Je vous présente llamafile – un LLM (pour Large Language Models ou « Grand Modèles de Langage » en français) dans un fichier. llamafile prend actuellement en charge Mistral 7B, WizardCoder et LLaVA (multimodal). Il est prévu pour être […]
DeciLM 7B : un modèle de langage de pointe plus rapide et moins coûteux
Deci vient de mettre en open-source le modèle de langage pré-entraîné 7B (pour 7 billion soit « entrainé sur 7 milliards de paramètres ») le plus performant, surpassant Mistral 7B et Llama 2 tout en étant plus rapide et moins coûteux. Vitesse – DeciLM 7B atteint un rendement de 82 % supérieur à celui de Mistral 7B […]
Together AI relève les défis du MoE de Mistral
Le succès fulgurant de Mistral s’est volatilisé en 24 heures – Together AI l’a détrôné en proposant une version moins chère et plus rapide de son modèle de langage Mixture of Experts (autrement de « mélange d’experts » abrégé MoE dans sa version originale), accessible en libre accès. Together AI a publié un modèle Mistral MoE hébergé […]