Tencent Hunyuan Hy3 preview disponible en open source, définissant une nouvelle voie pour les grands modèles open source chinois
2026-05-05 15:32
Favoris

Pré-entraînement, apprentissage par renforcement, infrastructure, tout a été reconstruit de fond en comble ; du lancement officiel de l'entraînement à la mise en ligne, il a fallu moins de trois mois. Le 23 avril, le grand modèle Tencent Hunyuan Hy3 preview a été officiellement publié et entièrement open source. Avec une architecture de mélange d'experts (MoE) totalisant 295 milliards de paramètres et seulement 21 milliards de paramètres activés, il réalise un bond significatif en capacité de codage, passant de 53 % à 74,4 % sur le benchmark SWE-Bench.

Alors que l'échelle des paramètres des grands modèles grimpe vers les billions, l'IA passe d'une invocation passive à une planification active. Le 23 avril, le grand modèle Tencent Hunyuan Hy3 preview a été officiellement publié et entièrement open source, ne poursuivant pas le nombre extrême de paramètres, mais se concentrant sur l'optimisation des « modèles de taille moyenne » et s'attachant à améliorer la densité d'intelligence unitaire.

Architecture de base : architecture MoE fusionnant réflexion rapide et lente

Hy3 preview totalise 295 milliards de paramètres, avec seulement 21 milliards de paramètres activés, n'activant qu'environ 7 % des paramètres lors de l'inférence grâce à l'architecture MoE. Il prend en charge une longueur de contexte maximale de 256K, une vitesse d'inférence de 23 tokens/seconde, et intègre un mécanisme de « réflexion rapide et lente », capable à la fois de réponses rapides et de raisonnements complexes approfondis.

Efficacité de R&D : reconstruction complète de l'infrastructure en trois mois

L'entraînement a officiellement débuté fin janvier 2026, et l'ensemble du processus a été achevé en trois mois, défini en interne comme le début du passage de « lire dix mille livres » à « parcourir dix mille lieues ». L'équipe a reconstruit de fond en comble le pré-entraînement, l'apprentissage par renforcement et l'infrastructure, sous la direction de Yao Shunyu, scientifique en chef de l'IA chez Tencent.

Capacités d'agent et de codage : SWE-Bench passe de 53 % à 74,4 %

La capacité de programmation est la direction où l'amélioration est la plus significative — le benchmark SWE-Bench est passé de 53 % pour Hunyuan 2.0 à 74,4 %, soit une augmentation de plus de 40 %, obtenant des résultats compétitifs dans de nombreuses évaluations telles que Terminal-Bench 2.0, BrowseComp, WideSearch, et les capacités d'agent se distinguent dans des benchmarks comme ClawEval.

Rapport qualité-prix et « praticité »

Les coûts ont considérablement baissé, l'entrée API à partir de 1,2 yuan par million de tokens, le prix en cas de succès du cache à 0,4 yuan par million de tokens, la sortie à partir de 4 yuans par million de tokens ; l'abonnement personnel mensuel à partir de 28 yuans.

De plus, il s'écarte activement des classements publics faciles à « manipuler », en évaluant la « véritable puissance de combat » via des questions auto-construites, les examens les plus récents, l'évaluation humaine, les tests de produits par la foule, etc., obtenant d'excellents résultats aux Olympiades scientifiques de pointe, aux IMO, à l'examen de qualification doctorale en mathématiques de l'Institut Qiuzhen de l'Université Tsinghua, etc.

Intégration dans l'écosystème : open source complet et déploiement multi-produits

Les poids du modèle et le code sont déjà open source sur GitHub, Hugging Face, ModelScope, GitCode. Il a été déployé sur Yuanbao, ima, CodeBuddy, WorkBuddy, QQ, QQ Browser, Tencent Docs, Tencent Lexiang, Tencent Maps, Tencent E-Sign, etc., et sera progressivement intégré à WeChat Official Accounts, Tencent News, Game for Peace, Tencent Customer Service, etc. Il prend en charge les produits agents open source tels qu'OpenClaw, OpenCode, KiloCode, et est déjà disponible sur TokenHub, la plateforme de services de grands modèles de Tencent Cloud.

Définir une nouvelle voie pour les grands modèles open source chinois

Nombre de paramètres modéré, densité d'intelligence unitaire élevée, abordable. La concurrence des grands modèles chinois passe d'une simple comparaison d'indicateurs techniques à un développement collaboratif global des modèles, produits, ingénierie et écosystèmes.

Construire un écosystème d'innovation vertueux

Après les mises à jour de DeepSeek et Kimi la même semaine fin avril, Hunyuan prend le relais en open source, formant une « course-poursuite » technique sur la réutilisation et l'optimisation des technologies sous-jacentes de chacun, construisant un cycle d'innovation vertueux.

Habiliter les applications intelligentes sur tous les scénarios

Dans les interactions avec les utilisateurs ordinaires, la compréhension des intentions, le traitement de longs textes, la stabilité des réponses et l'humanisation se sont améliorés. L'assistant IA officiel de QQ, Xiao Q, permet de rechercher des informations, définir des rappels, résoudre des problèmes par photo, etc. Les scénarios d'agents sont sa direction de différenciation principale, avec des capacités systématisées, où une tâche d'agent unique implique également une collaboration approfondie de capacités multidimensionnelles telles que le raisonnement, le traitement de longs textes, les instructions, le dialogue, le code, les outils, etc.

Cette version Hy3 preview n'est qu'un point de départ provisoire. Yao Shunyu a indiqué que l'obtention de retours open source et réels sera une voie clé pour améliorer la praticité de la version officielle. L'équipe Hunyuan est en train d'étendre l'échelle du pré-entraînement et de l'apprentissage par renforcement pour élever la limite supérieure de l'intelligence, et explore des capacités de modèle distinctives via une conception collaborative approfondie avec les produits.

Ce texte est rédigé, traduit et republié à partir des informations de l'Internet mondial et de partenaires stratégiques, uniquement pour la communication entre lecteurs. En cas d'infraction au droit d'auteur ou d'autres problèmes, veuillez nous en informer à temps pour la modification ou la suppression. La reproduction de cet article est strictement interdite sans autorisation formelle. Mail : news@wedoany.com