Introduction
Je suis passionné par les avancées en apprentissage automatique de tous types, et je suis de près la recherche de toute la planète.
J’ai vu un article qui m’a fasciné, [https://arxiv.org/abs/2401.02994]Blending Is All You Need: Cheaper, Better Alternative to Trillion-Parameters LLM (2024).
Cet article en particulier venait des esprits fertiles de l’Université de Cambridge, de l’University College London, et d’une équipe amusante appelée Chai Research.
Ce qu’ils ont découvert, essentiellement, à travers des tests utilisateurs réels (pas seulement de la théorie)…
Les utilisateurs s’engageaient plus et avaient des taux de rétention plus élevés quand ils parlaient à un mélange de modèles de langage de petite taille, allant de 6 milliards à 13 milliards de paramètres…
…versus ChatGPT 3.5…
Qui utilise 175 milliards de paramètres.
C’est un mélange de modèles jusqu’à 30 fois plus petits…
Obtenant un meilleur résultat, pour la plupart des utilisateurs de leur produit.
Je pousse ce concept dans BrightRobot au niveau supérieur - les modèles que je combine pour chacun de mes mélanges incluent jusqu’à la version la plus récente et la plus performante de GPT-4, GPT-4o, qui a dominé le LMSYS Chatbot Arena quand il était en pré-lancement sous ‘im-a-good-gpt2-chatbot’.
Même le mélange Instant que nous avons comme notre mélange d’entrée de gamme est une combinaison où chaque modèle est plus fort que ChatGPT 3.5… en isolation, tout en étant beaucoup plus rapide.
…Et c’est ce que je rends disponible gratuitement.
Ce que nous avons dans le mélange Fast HQ est tout au moins comparable à GPT-4, et tout dans notre mélange HQ est beaucoup plus fort, et inclut même la dernière itération de GPT-4 lui-même, GPT-4o.
Qu’est-ce que cela signifie pour vous ?
Cela signifie de meilleures réponses, un compagnon de chat plus engageant, et des réponses plus variées et intéressantes.
Cela signifie aussi des réponses plus rapides, ce qui est très important pour moi, car cela me fait gagner du temps pour travailler sur des choses plus importantes.
En d’autres termes - les mélanges font plus pour moi, et pour vous, plus vite.
Cool ? J’ai trouvé que oui, alors j’espère que vous aussi.
Et souvenez-vous, si ce “Blend” vous semble trop fou, choisissez simplement votre modèle préféré (de nombreuses entreprises - OpenAI, Anthropic, Cohere, Mistral AI, et bien d’autres) et continuez votre journée.
À ma connaissance, c’est la première implémentation qui combine ce qu’on appelle les “modèles de frontière”, c’est-à-dire… des modèles vraiment puissants… automatiquement, pour vous donner un meilleur résultat.
Je m’attends à ce que cela soit copié par d’autres interfaces bientôt, parce que…
Eh bien, c’est tout simplement mieux.
Et ne voulons-nous pas tous le meilleur, là où nous pouvons l’obtenir ?
Envoyez-moi un message à [email protected] avec vos retours pendant que vous les utilisez, j’adorerais savoir ce que vous en pensez.