Message de Gate News, 16 avril — Les républicains de la Chambre ont proposé le Deterring American AI Model Theft Act, qui obligerait le gouvernement à identifier les entités en Chine et en Russie accusées d’utiliser des méthodes de requête-copie inappropriées pour extraire des résultats de modèles d’IA américains afin de construire des systèmes rivaux. Le projet de loi doit être examiné par la commission des affaires étrangères de la Chambre la semaine prochaine et pourrait entraîner une mise à l’index du Département du Commerce ou des sanctions présidentielles en vertu d’une loi de 1977.
Parmi les cibles potentielles figurent les laboratoires d’IA chinois DeepSeek, Moonshot et MiniMax. OpenAI a allégué que DeepSeek a utilisé des résultats de ChatGPT pour créer un modèle de contrefaçon, tandis que Google et Anthropic ont publié des rapports citant des techniques similaires non autorisées. Un rapport distinct de la commission Chine de la Chambre appelle aussi le Département du Commerce à examiner ces entreprises en vue d’une action sur la liste des entités et recommande des transmissions au Département de la Justice.
La mesure s’inscrit dans une impulsion législative plus large concernant la Chine, incluant le Chip Security Act et le Guaranteeing Access and Innovation for National AI (GAIN AI) Act, soutenu par les deux partis. Des analystes indiquent que de tels contrôles pourraient accélérer l’autonomie technologique chinoise, comme cela s’est produit après les précédents contrôles américains des exportations visant Huawei, bien que l’avantage américain en matière de puces d’IA reste substantiel : actuellement environ cinq fois plus performant, avec des projections suggérant un écart de 17 fois d’ici 2027.
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
Perplexity révèle sa méthode de post-formation pour des agents de recherche web ; le modèle basé sur Qwen3.5 surpasse GPT-5.4 en précision et en coût
Perplexity utilise la SFT suivie par le RL avec des modèles Qwen3.5, en s’appuyant sur un ensemble de données QA multi-étapes et des contrôles par grille d’évaluation pour améliorer la précision et l’efficacité de la recherche, en atteignant des performances FRAMES de niveau supérieur.
Résumé : le flux de travail de post-formation de Perplexity pour les agents de recherche web combine un apprentissage supervisé par fine-tuning (SFT) afin de garantir le respect des instructions et la cohérence linguistique avec un apprentissage par renforcement en ligne (RL) via l’algorithme GRPO. La phase RL exploite un jeu de données propriétaire vérifiable de questions-réponses multi-étapes et des données conversationnelles basées sur des grilles d’évaluation pour empêcher la dérive de la SFT, avec un filtrage des récompenses et des pénalités d’efficacité au sein des groupes. L’évaluation montre que Qwen3.5-397B-SFT-RL atteint les meilleures performances FRAMES, avec 57,3 % d’exactitude avec un seul appel d’outil et 73,9 % avec quatre appels, à 0,02 $ par requête, surpassant GPT-5.4 et Claude Sonnet 4.6 sur ces métriques. La tarification est basée sur l’API et exclut la mise en cache.
GateNewsIl y a 29m
TikTok supprime plus de 538 000 vidéos non autorisées générées par IA ; plusieurs plateformes lancent des initiatives de gouvernance
Message de Gate News, 23 avril — TikTok a annoncé une vaste opération de répression visant les contenus générés par IA qui portent atteinte aux droits des utilisateurs, indiquant qu’il a supprimé plus de 538 000 vidéos et sanctionné plus de 4 000 comptes à ce jour. La plateforme donnera la priorité à l’application contre les deepfakes IA, le clonage de voix
GateNewsIl y a 1h
La finance traditionnelle accélérera l’entrée sur le marché crypto, selon l’économiste Fu Peng
Message de Gate News, 23 avril — Fu Peng, économiste en chef de Xinfire Group, a partagé son point de vue sur la convergence entre la finance traditionnelle et les actifs crypto lors du Sommet 2026 sur la gestion institutionnelle du patrimoine numérique à Hong Kong. Selon Fu, l’intégration des institutions financières traditionnelles avec
GateNewsIl y a 1h
L’équipe OpenAI Codex corrige un bug d’authentification d’OpenClaw et améliore considérablement le comportement de l’agent
OpenClaw passe de Pi à l’outil d’exécution Codex pour corriger un repli d’authentification silencieux, avec deux PR qui traitent le bridge et le fallback ; après la correction, l’agent passe d’un simple polling de battements à une boucle de travail complète, permettant des progrès.
Résumé : L’optimisation de l’outil d’exécution Codex d’OpenClaw a corrigé une faille d’authentification critique qui provoquait un repli silencieux vers l’outil d’exécution Pi lors de l’utilisation de Codex avec des modèles OpenAI. Deux requêtes d’extraction corrigent le bridge d’authentification et empêchent le repli silencieux, en modifiant l’adaptateur d’exécution. En conséquence, le comportement de l’agent évolue d’un simple polling de battements à une boucle de travail complète qui lit le contexte, analyse les tâches, modifie les dépôts et vérifie l’avancement, améliorant la continuité et la visibilité entre les battements.
GateNewsIl y a 1h
Le modèle d’analyse de sécurité de niveau militaire Mythos d’Anthropic a été accédé sans autorisation : comment ont-ils fait ?
Rapporte Bloomberg : un groupe privé de messagerie a accédé à Mythos sans autorisation, via une licence légitime obtenue auprès du tiers sous-traitant d’Anthropic. Mythos est une IA défensive destinée aux entreprises, uniquement disponible pour de grandes organisations soumises à des contrôles stricts. Le groupe s’est servi de sa connaissance de l’URL du modèle pour déduire l’emplacement du système et y accéder, puis a fourni des captures d’écran pour démontrer, affirmant qu’il est toujours utilisé mais sans intention malveillante. Anthropic est en train d’enquêter ; dans un premier temps, l’affaire est considérée comme un abus de droits plutôt qu’une intrusion externe. Cette affaire met en évidence le risque lié au fait de confier des modèles très sensibles à la gestion de tiers, et souligne la nécessité de renforcer la résilience de la gouvernance et les mécanismes de confiance.
ChainNewsAbmediaIl y a 1h
Alerte du CISO de Manticore : ShinyHunters affirme avoir compromis les systèmes internes d’Anthropic
Selon une alerte publiée le 23 avril sur la plateforme X par le directeur de la sécurité de l’information de SlowMist, 23pds, le groupe de hackers ShinyHunters affirme avoir compromis des systèmes internes liés au modèle Anthropic Mythos et a partagé des preuves sous forme de captures d’écran, notamment le panneau de gestion des utilisateurs, le tableau de bord d’expérimentation de l’IA ainsi que des analyses des performances et des coûts du modèle. Toutefois, Anthropic n’a pas encore publié de déclaration officielle.
MarketWhisperIl y a 1h