Alors qu’Amie avait déjà montré des capacités prometteuses dans la communication textuelle sur des questions médicales, cette avancée vise à intégrer des informations visuelles, essentielles dans le diagnostic médical.
Grâce à un modèle avancé, Flash Gemini 2.0, et à un cadre de raisonnement adaptatif, l’IA peut ajuster ses requêtes en fonction des indices visuels et textuels fournis, imitant ainsi le processus de raisonnement d’un clinicien humain.
Dans une série de tests comparant Amie à des médecins humains, les résultats ont révélé une performance supérieure de l’IA en termes d’interprétation des données, de précision des diagnostics et d’empathie perçue par les « patients » acteurs.
Bien que ces résultats soient prometteurs, Google reconnaît les limites de la simulation par rapport aux défis réels des soins cliniques et prévoit de tester Amie dans des environnements médicaux réels.
L’objectif est de développer un outil d’IA capable d’assister les cliniciens dans des contextes de santé quotidiens, tout en prenant en compte les nuances et complexités des interactions humaines.