Anthropic assouplit ses engagements en matière de sécurité de l'IA, déclenchant un nouveau contexte de compétition avec OpenAI
Le 25 février, il a été annoncé qu’Anthropic avait récemment ajusté sa politique de sécurité en intelligence artificielle, supprimant l’engagement initial qui interdisait la formation de systèmes d’IA avancés avant que toutes les mesures de sécurité ne soient en place. Ce changement offre à Anthropic une plus grande flexibilité dans la compétition avec OpenAI, Google et xAI, tout en suscitant des débats dans l’industrie sur l’équilibre entre le développement rapide de l’IA et la garantie de sa sécurité.
Jared Kaplan, directeur scientifique d’Anthropic, a déclaré que l’arrêt de la formation ne résout pas réellement les problèmes de sécurité, et qu’il n’est pas judicieux de suspendre unilatéralement le développement face à la progression rapide des concurrents. La société insiste sur le fait qu’elle améliorera la transparence en publiant une feuille de route de sécurité de pointe et des rapports réguliers sur les risques, et qu’elle retardera le développement en cas de détection de risques majeurs de catastrophe.