Des chercheurs, tel que Willie Neiswanger de l’Université de Californie du Sud, mettent au point des cadres théoriques qui combinent la théorie des décisions et la théorie des utilités, afin de renforcer la capacité de l’IA à naviguer dans l’incertitude.
Neiswanger souligne que les modèles de langage de grande taille (LLM) ont des difficultés à traduire des nuances de confiance, ce qui conduit à des réponses qui semblent sûres, même en présence de données insuffisantes.
L’objectif de Neiswanger est de mieux quantifier l’incertitude, afin de permettre aux systèmes d’IA de prendre des décisions éclairées tout en tenant compte des préférences humaines.
Les applications de ses travaux sont variées et couvrent des domaines allant de la stratégie commerciale à l’assistance au diagnostic médical.
En intégrant les valeurs humaines dans le processus décisionnel, il est possible de générer des recommandations qui, tout en étant optimales sur le plan technique, respectent simultanément les considérations éthiques essentielles.
À l’avenir, ces recherches visent à appliquer ces approches à des secteurs divers tels que la logistique et les soins de santé, en améliorant par la même occasion la transparence des décisions des modèles, permettant ainsi aux utilisateurs de mieux comprendre les motifs derrière ces choix.
Source: IA Tech news