L’IA chinoise monte en puissance avec Tencent et son modèle Hunyuan-A13B

Tencent dévoile Hunyuan-A13B, un modèle IA puissant et économe, pensé pour les environnements à faibles ressources informatiques.

Le géant chinois Tencent
© VCG
Hunyuan-A13B : Tencent dévoile une IA performante pour tous

Avec Hunyuan-A13B, Tencent, le géant chinois des technologies et du numérique, bouscule les standards des modèles d’intelligence artificielle. Pensé pour répondre aux défis croissants de performance dans des environnements aux ressources limitées, ce nouveau modèle de langage de dernière génération mise sur une architecture novatrice et des choix technologiques stratégiques pour offrir une IA à la fois performante, agile et économique.

Hunyuan-A13B repose sur une architecture Mixture of Experts (MoE) à granularité fine. Même si seuls 13 milliards de paramètres sont activés pendant l’inférence, le modèle totalise 800 milliards de paramètres au global. Ce choix technique garantit une grande efficacité énergétique et une excellente scalabilité, deux atouts majeurs dans le déploiement d’applications à grande échelle et dans des contextes contraints.

Quelles sont les particularités de Hunyuan-A13B ?

L’une des caractéristiques les plus remarquables de ce modèle est sa capacité à gérer des contextes extrêmement longs, allant jusqu’à 256 000 jetons. Cette prouesse le rend idéal pour des tâches nécessitant une compréhension approfondie de documents complexes et de longues conversations, comme dans les domaines juridiques, scientifiques et éducatifs.

Côté raisonnement, le modèle se démarque avec un système hybride combinant des mécanismes de réflexion rapide et lente. Cette approche adaptative permet au modèle de moduler sa profondeur d’analyse en fonction de la tâche.

Performant dans des usages variés, Hunyuan-A13B brille aussi dans les scénarios de type “agent”, où il doit prendre des décisions, analyser des instructions et exécuter des tâches complexes. Des tests rigoureux ont démontré sa compétitivité dans des domaines aussi divers que les mathématiques, la programmation et encore les sciences cognitives.

Mise en œuvre : les clés pour utiliser le modèle efficacement

Pour garantir une intégration fluide dans les projets des développeurs, Tencent propose plusieurs formats de quantification (dont FP8 et INT4) ainsi que la technologie GQA (Grouped Query Attention) pour un traitement plus efficace des requêtes.

Le modèle est compatible avec des outils populaires comme Hugging Face Transformers, TensorRT-LLM, vLLM et SGLang, et peut être rapidement déployé grâce à des images Docker prêtes à l’emploi.

Source : AI Base