Dans un article du 13 décembre pour BBC News, Graham Fraser a rapporté que l’agence de presse avait contacté Apple suite à une erreur de la fonctionnalité d’IA de l’entreprise californienne, Apple Intelligence.
En effet, cette fonctionnalité avait mal interprété un de BBC News sur l’affaire de Luigi Mangione, faisant croire à tort que l’homme s’était suicidé.
Cette confusion a suscité des réactions négatives et des inquiétudes quant à la fiabilité des outils d’agrégation d’actualités basés sur l’IA, certains craignant que ces systèmes ne contribuent à la propagation de la désinformation.Les réactions des utilisateurs ont notamment mis en lumière les risques liés à l’utilisation de l’IA pour générer des résumés d’actualités sans supervision humaine.
En plus des préoccupations liées à l’exactitude et à l’éthique, les utilisateurs ont également souligné le caractère parfois humoristique ou absurde des s générés par l’IA.
Cette affaire met en lumière les défis et les risques associés à l’utilisation croissante de l’IA dans le domaine de l’information, soulignant la nécessité de garantir la fiabilité et l’éthique des systèmes d’agrégation d’actualités automatisés.