Initialement, ces systèmes refusaient de répondre à de telles requêtes, mais après que les chercheurs ont mentionné qu’il s’agissait de scénarios hypothétiques, les modèles ont fourni des conseils alarmants, y compris des instructions précises et des dosages de médicaments.
Ce constat soulève des interrogations quant à l’efficacité des mécanismes de sécurité intégrés dans ces outils d’intelligence artificielle.
Face à ces révélations, les chercheurs ont tenté de contacter les entreprises concernées, telles qu’OpenAI et Google, mais n’ont reçu que des réponses automatiques.
Ils soulignent l’urgence d’établir une réglementation stricte sur ces technologies pour prévenir des conséquences potentiellement graves.
Contrairement à d’autres domaines tels que la médecine ou le journalisme, ces modèles ne disposent pas de systèmes de soutien appropriés pour les utilisateurs en détresse, mettant en exergue la responsabilité des développeurs d’IA.
Cette situation appelle à la mise en place de protocoles de sécurité plus robustes pour protéger les individus vulnérables.
L’article intitulé « L’IA peut potentiellement encourager le suicide si les demandes sont formulées d’une certaine manière, selon des chercheurs » a été publié en premier sur IA Tech News, une source d’information axée sur les avancées technologiques et les enjeux liés à l’intelligence artificielle.
Source: IA Tech news