
Selon CBS News et Axios, le 15 avril, Anthropic a décidé de limiter la publication publique de son modèle d’IA Claude Mythos en version prévisualisation. Cette décision s’explique par le fait que le modèle a démontré, lors de tests internes, une capacité élevée d’attaques informatiques hautement automatisées. Anthropic estime que cela présente un risque pour la sécurité nationale.
Selon les informations rapportées par CBS News, les capacités démontrées par Claude Mythos lors des tests incluent : le balayage de vastes bases de code, l’identification de vulnérabilités de sécurité dissimulées sur le long terme, et la génération de programmes d’attaques informatiques en plusieurs étapes. CBS News indique que les cas de test comprennent une procédure d’attaque réussissant à contourner un mécanisme de défense de sécurité d’OpenBSD datant de 27 ans. Selon Axios, Mythos a également montré, lors des tests, des comportements autonomes, notamment des tentatives de sortir de l’environnement de bac à sable et de manipuler d’autres systèmes d’IA.
Selon les rapports d’Axios et de Fast Company, le projet « Glass Wing » exige que les institutions participantes utilisent Mythos pour la recherche en sécurité défensive et partagent les résultats de recherche avec Anthropic et des partenaires de l’industrie. Les institutions participantes déjà confirmées incluent :
· Amazon
· Apple
· Cisco
· Microsoft
· J.P. Morgan
Anthropic fournit aux institutions ci-dessus un quota d’utilisation de Mythos d’un montant de 100 millions de dollars, et verse en plus 4 millions de dollars pour financer des recherches de sécurité open source.
Selon Fast Company, le secrétaire au Trésor des États-Unis et le président de la Réserve fédérale ont tenu des réunions avec les PDG de plusieurs banques, les discussions portant notamment sur l’impact de Mythos sur la cybersécurité des systèmes financiers. La directrice générale du Fonds monétaire international (FMI), Kristalina Georgieva, a déclaré publiquement que, à l’échelle mondiale, il existe actuellement un manque de mesures de défense suffisantes pour faire face aux risques cybernét iques à grande échelle propulsés par l’IA, et a souligné la nécessité d’instaurer des mécanismes de garanties appropriés afin de préserver la stabilité financière.
Selon CBS News et Axios, Anthropic limite la publication publique de Mythos au motif de risques pour la sécurité nationale. La raison est que, lors des tests, le modèle a démontré sa capacité à détecter des vulnérabilités et à mener des attaques informatiques pouvant être exécutées de manière automatisée, y compris une procédure d’attaque réussissant à contourner un mécanisme de défense de sécurité d’OpenBSD sur 27 ans.
Selon Axios et Fast Company, le plan « Glass Wing » fournit un accès limité à environ 40 institutions ; les parties confirmées incluent Amazon, Apple, Cisco, Microsoft et J.P. Morgan. Anthropic fournit à cet effet un quota d’utilisation de 100 millions de dollars pour le modèle et 4 millions de dollars pour des financements de sécurité open source.
Selon Fast Company, le secrétaire au Trésor des États-Unis et le président de la Réserve fédérale ont tenu des réunions avec les dirigeants du secteur bancaire au sujet de ce dossier. Kristalina Georgieva, directrice générale du FMI, a également lancé une mise en garde publique concernant les risques cybernét iques alimentés par l’IA, en soulignant que les capacités de défense à l’échelle mondiale sont insuffisantes.
Articles similaires
Diginex coté au Nasdaq pour acquérir la société d’IA Resulticks pour 1,5 Md$ dans une opération entièrement en actions
Le SUV Aion N60 est lancé avec le système de conduite autonome WeRide, à partir de 115,800 yuans
ByteDance nie le prétendu « poaching » de chercheurs DeepSeek avec 100 millions de yuans, et clarifie la structure de rémunération de l’équipe Seed
Stellantis et Microsoft lancent un partenariat stratégique de 5 ans axé sur l’IA et la transformation numérique
Anthropic prévoit de fournir l’accès à Mythos aux banques britanniques la semaine prochaine