Ces systèmes, même lorsqu’ils sont confrontés à des situations légèrement ajustées, ont tendance à adopter des réponses qui semblent familières ou intuitives, au détriment de la véracité des faits.
Cette tendance peut entraîner des conséquences sérieuses dans des environnements cliniques où des décisions critiques doivent être prises.
En s’appuyant sur les concepts développés par Daniel Kahneman concernant les modes de pensée rapide et lente, l’étude souligne l’importance d’une supervision humaine dans l’application de l’IA en médecine.
Les chercheurs ont notamment observé que certains modèles persistaient à reproduire des stéréotypes de genre, même lorsque le contexte avait été modifié.
Ces résultats mettent en lumière les lacunes inhérentes aux IA dans les décisions médicales et soulignent la nécessité d’une vigilance humaine pour garantir des choix éthiques appropriés.
À l’avenir, les chercheurs prévoient de poursuivre leurs travaux afin d’explorer comment ces modèles peuvent se comporter dans des scénarios cliniques plus complexes.
Source: IA Tech news