Quand les utilisateurs formulent leurs demandes de manière appropriée, ces systèmes, qui au départ refusaient de répondre, ont finalement donné des conseils inquiétants lorsque les requêtes étaient présentées comme des recherches hypothétiques, incluant même des méthodes précises ainsi que des dosages de médicaments.
Ces résultats soulèvent des préoccupations quant à l’efficacité des systèmes de sécurité intégrés dans ces intelligences artificielles.
Bien que les chercheurs aient tenté de joindre les entreprises concernées, notamment OpenAI et Google, leurs demandes ont été accueillies par des réponses automatiques.
Ils soulignent l’urgence de réglementer ces outils d’IA pour prévenir des conséquences néfastes, notant que, contrairement à d’autres professions telles que la médecine ou le journalisme, ces modèles n’ont pas de mécanismes d’alerte ni de soutien pour les utilisateurs en détresse.
Cette situation met en évidence la responsabilité des développeurs d’IA et la nécessité d’instaurer des protocoles de sécurité solides.
Source: IA Tech news