Des chercheurs tels que Willie Neiswanger de l’Université de Californie du Sud développent des cadres théoriques qui allient la théorie des décisions et celle des utilités.
Leur objectif est d’améliorer la capacité des systèmes d’IA à gérer les situations incertaines.
Neiswanger met en lumière un défi important : les modèles de langage à grande échelle (LLM) ont souvent du mal à communiquer des niveaux de confiance variés, ce qui peut entraîner des réponses apparemment certaine même en l’absence de données solides.
Ainsi, ses recherches visent à affiner la quantification de l’incertitude, afin que ces systèmes puissent prendre des décisions plus éclairées tout en intégrant les préférences humaines.
Les répercussions de cette avancée sont multiples, touchant des domaines aussi variés que la stratégie d’entreprise ou le diagnostic médical.
En tenant compte des valeurs humaines dans le processus décisionnel, il devient possible d’offrir des recommandations qui, bien qu’optimales techniquement, respectent également les principes éthiques indispensables.
Les prochaines avancées de cette recherche cherchent à étendre ces méthodologies à d’autres secteurs, comme la logistique ou la santé, tout en augmentant la transparence des décisions des modèles pour que les utilisateurs puissent mieux comprendre les fondements de ces choix.
Source: IA Tech news