Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Sommaire
La société de renom, Stability AI, a récemment lancé sur le marché un nouveau modèle de base de 12 milliards de paramètres et une variante modifiée de 1.6 milliard de paramètres pour compléter sa série de modèles linguistiques Stable LM 2. Ces modèles ont été formés sur un vaste ensemble de données réunissant deux trillions de tokens à travers sept langues. Une spécificité qui les rend particulièrement polyvalents pour les tâches multilingues, ouvrant ainsi un horizon prometteur pour l’avenir de la technologie linguistique basée sur l’intelligence artificielle.
Le modèle phare de 12 milliards de paramètres se veut le mélange parfait entre performance, rendement, mémoire et vitesse. Il s’adapte spécifiquement aux développeurs qui travaillent avec la technologie de langage AI, quels que soient leurs besoins. Mais ce n’est pas tout. La variante de 1,6 milliard de paramètres du Stable LM 2 a également été améliorée, avec une meilleure capacité à mener des conversations dans ces sept langues, et ce, tout en maintenant des exigences système faibles. Les modèles de Stability AI, et en particulier le modèle de 12 milliards de paramètres, sont capables de gérer des tâches généralement nécessitant de plus grands modèles et des ressources considérables en termes de calcul et de mémoire, comme par exemple les grandes tâches pour Mixture-of-Experts (MoEs).
L’autre atout majeur de ces nouveaux modèles est sa version ajustée aux instructions, qui convient parfaitement pour des utilisations telles que les systèmes de récupération RAG grâce à sa performance élevée dans l’utilisation d’outils et l’appel de fonctions. Le modèle à 12 milliards de paramètres du Stable LM 2 offre des résultats solides en termes de performances par rapport à d’autres modèles linguistiques populaires tels que Mixtral, Llama2, Qwen 1.5, Gemma et Mistral à travers divers benchmarks. Les entreprises et les développeurs peuvent désormais utiliser le modèle à 12 milliards de paramètres du Stable LM 2 à des fins commerciales et non commerciales grâce à l’adhésion à Stability AI.
Ces nouvelles sorties étendent la famille Stable LM 2 dans la catégorie des 12 milliards de paramètres tout en offrant un modèle ouvert et transparent sans compromis sur la puissance et la précision. L’objectif final de Stability AI est d’autonomiser les développeurs et les entreprises pour qu’ils continuent à innover dans le domaine de l’IA tout en gardant le contrôle total de leurs données à travers ces nouveaux modèles.
–
Le modèle Stable LM 2 12B vise à établir un équilibre entre la performance, l’efficacité, les exigences en mémoire et la vitesse, tandis que la variante 1.6B mise à jour améliore les capacités de conversation dans sept langues tout en maintenant des exigences système remarquablement faibles.
–
Les modèles ont été entraînés sur deux billions de jetons répartis sur sept langues: anglais, espagnol, allemand, italien, français, portugais et néerlandais.
–
Le modèle Stable LM 2 12B offre des résultats solides lors des tests sur des tâches zéro-shot et few-shot, selon les benchmarks généraux de l’Open LLM Leaderboard, comparé à d’autres modèles populaires.
–
Le modèle est conçu comme un modèle ouvert et efficace adapté aux tâches multilingues, avec des performances fluides sur du matériel largement disponible. Il est particulièrement adapté pour être utilisé comme partie centrale des systèmes de recherche RAG, en raison de ses performances élevées dans l’utilisation d’outils et l’appel de fonctions.
–
Les développeurs et les entreprises peuvent utiliser le Stable LM 2 12B dès maintenant à des fins commerciales et non commerciales en souscrivant à un abonnement auprès de Stability AI.