Il a qualifié le lancement du modèle Grok de Xai de « complètement irresponsable », mettant en avant l’absence de transparence et d’évaluations de sécurité nécessaires.
Cette dénonciation est renforcée par les réflexions d’un ancien ingénieur d’OpenAI, Calvin French-Owen, qui reconnaît les efforts en matière de sécurité au sein de l’entreprise, mais souligne que beaucoup de travaux ne sont pas publiés, ce qui pourrait nuire à la confiance et à la responsabilité.
L’industrie de l’IA se trouve dans un « paradoxe de la sécurité-vitesse », où l’urgence de lancer des produits rapidement entre en conflit avec la nécessité de garantir leur sécurité.
Cette pression compétitive, combinée à une culture axée sur l’innovation rapide, rend difficile la mise en place de normes de sécurité solides.
Pour aller de l’avant, il est impératif de redéfinir les priorités, en intégrant les œillères de la sécurité dès le début du processus de développement et en cultivant une culture de responsabilité partagée parmi tous les employés, afin d’assurer que l’ambition et la responsabilité cohabitent dans la quête de l’intelligence générale artificielle (AGI).