Une recherche récente menée par l’Université Jiao Tong de Shanghai en collaboration avec le SII Generative AI Research Lab (GAIR) a mis en lumière une approche novatrice pour l’entraînement de modèles de langage de grande taille (LLM) destinés à des tâches complexes.
Intitulé Limi, ce cadre de travail repose sur le postulat que la qualité des données utilisées est plus significative que leur quantité.
En effet, les chercheurs ont prouvé qu’il est possible d’atteindre des performances supérieures avec seulement 78 exemples soigneusement choisis, surpassant des modèles entraînés sur des milliers d’exemples.
Cette découverte est particulièrement prometteuse pour les secteurs où l’obtention de données est difficile ou coûteuse.Limi se focalise sur la collecte de démonstrations structurées d’actions autonomes.
Chaque démonstration consiste en une demande suivie d’une série d’actions exécutées par le modèle pour répondre à celle-ci.
Pour leurs expériences, les chercheurs ont constitué un jeu de données de 78 requêtes basées sur des situations réelles, attribuant l’exécution des tâches à un agent de codage assisté par IA.
Les résultats obtenus à l’aide d’un modèle optimisé ont démontré des performances impressionnantes par rapport à plusieurs références établies, ouvrant ainsi la voie à un développement plus efficace de systèmes d’IA autonomes, sans nécessiter d’importantes quantités de données.L’article Une méthode innovante de formation sur l’IA génère des agents logiciels performants avec uniquement 78 exemples a été publié en premier sur IA Tech News.
Restez connecté pour découvrir l’avenir de la technologie et de l’intelligence artificielle.Source: IA Tech news

