Ces zones présentent des défis que les humains surmontent grâce à une perception multisensorielle, tandis que les robots traditionnels, reposant essentiellement sur des données visuelles, manquent souvent d’efficacité dans des terrains imprévisibles.
Wildfusion vise à combler cette lacune en intégrant des informations provenant de capteurs tactiles et de microphones de contact, ce qui permet aux robots de « ressentir » leur environnement en capturant les vibrations et en mesurant la force appliquée à leurs pattes.
Ce système fusionne des données de différentes sources au moyen d’un modèle d’apprentissage profond, créant ainsi une représentation globale du terrain.
Cela renforce la capacité des robots à naviguer en toute confiance, même lorsque leur champ de vision est limité.
Des tests réalisés en Caroline du Nord ont prouvé l’efficacité de Wildfusion, permettant à un robot de se mouvoir aisément à travers divers paysages.
À l’avenir, l’équipe envisage d’intégrer des capteurs additionnels pour améliorer encore l’adaptabilité des robots dans des environnements complexes.
Source: IA Tech news