Des chercheurs tels que Willie Neiswanger de l’USC mettent au point des cadres conceptuels qui combinent la théorie des décisions et la théorie des utilités.
L’objectif est d’améliorer la capacité des systèmes d’IA à naviguer dans des situations incertaines.
Neiswanger met en évidence les limitations des modèles de langage de grande taille (LLM), qui ont du mal à transmettre les degrés de confiance, offrant souvent des réponses qui paraissent sûres malgré un manque de données adéquates.
Son travail se concentre sur l’amélioration de la quantification de l’incertitude pour aider les systèmes d’IA à prendre des décisions plus informées tout en intégrant les préférences humaines.
Les champs d’application de cette recherche sont variés, couvrant la planification stratégique dans le secteur des entreprises jusqu’à l’assistance en diagnostic médical.
En intégrant les valeurs des utilisateurs au processus de prise de décision, il devient possible de formuler des recommandations qui, tout en étant optimales sur le plan technique, respectent également des valeurs humaines fondamentales.
Les prochaines phases de cette recherche viseront à appliquer ces modèles à des domaines tels que la logistique et les soins de santé, tout en favorisant une meilleure transparence des décisions réalisées par les IA, afin que les utilisateurs puissent mieux comprendre les raisons et le processus derrière ces choix.
Source: IA Tech news