La société a notamment utilisé des puces de fournisseurs locaux, y compris ceux associés à Alibaba et Huawei, pour former des modèles de grandes langues à l’aide de la technique du mélange d’experts (MOE).
Cela marque une avancée dans la course à l’IA entre les entreprises chinoises et américaines, qui cherchent des moyens rentables de former des modèles et de contourner les restrictions d’exportation sur les puces haut de gamme.
Ant Group a publié un article de recherche décrivant son travail et affirmant que ses modèles surpassent ceux développés par Meta.
L’utilisation des modèles MOE, qui divisent les tâches en ensembles de données plus petits gérés par des composants distincts, vise à réduire les coûts de formation des modèles IA.
En parallèle, la stratégie d’Ant contraste avec celle de Nvidia, qui mise sur des puces plus puissantes pour stimuler la croissance des revenus.
Cette approche de développement d’IA basée sur des semi-conducteurs chinois témoigne des efforts de la Chine pour réduire les coûts d’exécution des applications d’IA et diminuer sa dépendance au matériel étranger.