Anthropic Claude facture à un utilisateur 200,98 dollars en trop en raison d’un bug de facturation, et le remboursement a d’abord été refusé avant une compensation intégrale

D’après le suivi de Beating, un bug de facturation dans le service Claude Code d’Anthropic a entraîné une surfacturation de Max 20x de 200,98 dollars de frais d’utilisation supplémentaires, alors qu’ils n’utilisaient que 13 % de leur quota mensuel. Le bug a été déclenché lorsque l’historique des commits d’un dépôt git d’un utilisateur contenait la chaîne en majuscules « HERMES.md » ; le système a alors contourné les limites d’abonnement et a facturé des frais d’utilisation supplémentaires.

Le système de prévention des abus d’Anthropic effectuait une mise en correspondance de chaînes sur des journaux git injectés dans des prompts système, probablement pour tenter de détecter des clients API non officiels, mais il a à tort signalé des utilisateurs légitimes mentionnant le fichier de configuration de l’agent Hermes.

Après la soumission d’une demande de remboursement par l’utilisateur, le service client IA d’Anthropic a d’abord refusé toute compensation, indiquant qu’il ne pouvait pas rembourser les erreurs de routage de facturation. Ce refus a déclenché une vague de réactions sur GitHub et Hacker News, jusqu’à la une. Le membre de l’équipe Claude Code Thariq a ensuite annoncé que tous les utilisateurs concernés recevraient un remboursement intégral, ainsi qu’une compensation en crédit équivalente.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Forefront Tech finalise la tarification de l’$100M IPO, une cotation au Nasdaq sous le code FTHAU

D’après ChainCatcher, la société d’acquisition à vocation spécifique Forefront Tech a finalisé la tarification de son introduction en bourse (IPO) de 100 millions de dollars le 30 avril et sera cotée au Nasdaq sous le symbole boursier FTHAU. La société prévoit d’utiliser le produit de l’opération pour saisir des opportunités de fusions-acquisitions dans le secteur de la blockchain, de la fintech, de l’intelligence artificielle et

GateNewsIl y a 51m

DeepSeek Introduit une méthode de primitives visuelles pour améliorer le raisonnement multimodal le 30 avril

D’après le rapport technique de DeepSeek, le 30 avril, l’entreprise a introduit Visual Primitives, une méthode qui intègre des unités visuelles de base telles que des points et des boîtes englobantes dans des chaînes de raisonnement afin de résoudre le problème de l’écart de référence dans les tâches multimodales. La méthode réduit la consommation de jetons d’images

GateNewsIl y a 1h

NVIDIA publie les poids du modèle phare Cosmos-Reason2-32B et étend la fenêtre de contexte à 256 000 jetons

D’après Beating, NVIDIA a publié les poids de Cosmos-Reason2-32B, la version phare de son modèle de vision-langage (VLM) de raisonnement par IA physique, conçu pour aider les robots et les systèmes de conduite autonome à comprendre les principes spatiaux, temporels et physiques. Le modèle de 32 milliards de paramètres,

GateNewsIl y a 1h

OpenAI révèle pourquoi Codex interdit de parler de « gobelins » : la récompense de personnalité « nerd » a dérapé

OpenAI explique dans son blog officiel que Codex interdit de parler de gobelins et autres créatures, à cause d’un signal de récompense favorisant des métaphores de créatures lors de l’entraînement des traits « nerd », ce qui a entraîné une contamination entre personnalités et une dérive du RLHF. L’incident a été révélé par Barron Roth après la fuite des instructions système, et OpenAI a alors adopté deux stratégies : un codage dur à court terme et une suppression à long terme des signaux de récompense. Cela met en garde contre la fragilité de la conception des récompenses, et souligne que les audits post-entraînement doivent être plus précis.

ChainNewsAbmediaIl y a 2h

Alibaba ouvre en open-source le module d’interprétabilité Qwen-Scope, couvrant 7 modèles, le 30 avril

Selon PANews, le 30 avril, Alibaba a annoncé via Qwen l’ouverture du code de Qwen-Scope, un module d’interprétabilité entraîné sur les modèles des séries Qwen3 et Qwen3.5. La publication couvre 7 grands modèles de langage dans des variantes denses et de type mixture-of-experts, avec 14 ensembles d’autoencodeurs clairsemés

GateNewsIl y a 3h

Les serveurs d’IA Nvidia B300 atteignent 1 million de dollars en Chine dans un contexte de pénurie d’approvisionnement

D’après Reuters, les serveurs d’IA B300 de Nvidia se vendent désormais pour environ 7 millions de yuans (1 million de dollars US) en Chine, sous l’effet d’une répression des réseaux de contrebande et de la demande persistante des entreprises technologiques locales. Le prix a fortement augmenté par rapport à environ 4 millions de yuans (585 000 dollars US) à la fin de 2025, de manière significative

GateNewsIl y a 3h
Commentaire
0/400
Aucun commentaire