Les résultats indiquent que, lors d’échanges en groupe, ces agents ne se limitent pas à utiliser des schémas préétablis.
Au contraire, ils s’auto-organisent pour parvenir à un consensus sur des règles linguistiques, à la manière des communautés humaines.
Publiée dans la revue Science Advances, l’étude examine la coordination des comportements de ces agents, qui imitent ainsi le processus de développement culturel humain sans intervention extérieure.
Les expériences menées avec divers groupes d’agents de grands modèles de langage (LLM) ont révélé l’émergence spontanée de normes de dénomination, même lorsque ces agents disposaient d’une mémoire limitée de leurs interactions et ignoraient leur appartenance à un groupe spécifique.
Par ailleurs, des biais collectifs se manifestent, résultant non pas des actions individuelles, mais des interactions au sein du groupe.
Ces découvertes soulignent la nécessité d’explorer la dynamique entre plusieurs agents d’IA afin de mieux appréhender les enjeux éthiques et les défis associés à leur présence dans des espaces en ligne.
Source: IA Tech news