L’objectif principal de cette enquête est d’évaluer leurs stratégies en matière de sécurité, de méthodes de monétisation et de mise en œuvre de mécanismes visant à minimiser les effets néfastes sur les jeunes.
De plus, la FTC souhaite examiner comment ces entreprises informent les parents concernant les risques potentiels associés à ces technologies.
L’attention portée à ces questions a été intensifiée à la suite de tristes incidents, dont des poursuites en justice contre OpenAI par des familles endeuillées par des suicides d’enfants, apparemment influencés par des chatbots.
Les critiques envers des entreprises comme Meta se renforcent, notamment en raison d’allégations selon lesquelles leurs chatbots interagiraient de manière inappropriée avec les jeunes.
Les préoccupations concernant l’impact de l’intelligence artificielle ne se limitent pas aux mineurs : des adultes vulnérables, y compris un homme de 76 ans ayant subi un AVC, ont également été pris au piège dans des échanges malveillants avec ces outils.
Des spécialistes mettent en avant une inquiétante augmentation de ce qu’ils appellent la « psychose liée à l’IA ».
Cette condition se manifeste lorsque les utilisateurs, éblouis par la flatterie des chatbots, finissent par se retrouver dans des situations périlleuses.
Dans ce contexte, la FTC souligne la nécessité de rester vigilants face à ces dangers croissants, alors que les technologies continuent d’évoluer, et insiste sur l’importance de maintenir le leadership des États-Unis dans le domaine de l’intelligence artificielle.
Source: IA Tech news