Gate News message, April 23 — Anthropic’s engineering team confirmed that the Claude Code quality degradation reported by users over the past month stemmed from three independent product-layer changes, not from API or underlying model issues. The three problems were fixed on April 7, April 10, and April 20 respectively, with the final version now at v2.1.116.
The first change occurred on March 4, when the team reduced the default reasoning effort level for Claude Code from “high” to “medium” to address occasional extreme latency spikes in Opus 4.6 under high reasoning intensity. After widespread user complaints about reduced performance, the team reverted the change on April 7. The current default is now “xhigh” for Opus 4.7 and “high” for other models.
The second issue was a bug introduced on March 26. The system was designed to clear old reasoning records after conversation inactivity exceeded one hour to reduce session recovery costs. However, a flaw in implementation caused the clearing to execute repeatedly on every subsequent turn rather than once, causing the model to progressively lose prior reasoning context. This manifested as increasing forgetfulness, repeated operations, and abnormal tool invocations. The bug also resulted in cache misses on every request, accelerating user quota consumption. Two unrelated internal experiments masked the reproduction conditions, extending the debugging process to over a week. After fixing on April 10, the team reviewed problematic code using Opus 4.7 and found that Opus 4.7 could identify the bug while Opus 4.6 could not.
The third change launched on April 16 alongside Opus 4.7. The team added instructions to the system prompt to reduce redundant output. Internal testing over several weeks showed no regression, but post-launch interaction with other prompts degraded coding quality. Extended evaluation revealed a 3% performance drop in both Opus 4.6 and 4.7, leading to a rollback on April 20.
These three changes affected different user groups at different times, and their combined effect created widespread and inconsistent quality decline, complicating diagnosis. Anthropic stated it will now require more internal employees to use the same public build version as users, run full model evaluation suites for every system prompt modification, and implement staged rollout periods. As compensation, Anthropic has reset usage quotas for all subscription users.
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke
Penafian.
Artikel Terkait
Cursor Mengungkap Alasan Pelatihan XAI: Daya komputasi terjebak, SpaceX memegang opsi senilai 60 miliar dolar AS lainnya untuk akuisisi
Pengumuman Anysphere menyatakan bahwa Cursor akan menggunakan infrastruktur Colossus dari xAI untuk melatih model baru guna memecahkan hambatan daya komputasi; SpaceX mengajukan opsi akuisisi senilai 60 miliar dolar (dapat diakuisisi sepenuhnya dalam waktu hingga tahun 2026), dan jika tidak, membayar sekitar 10 miliar dolar sebagai kompensasi kerja sama. Kedua transaksi tersebut berjalan bersamaan, membentuk ulang siapa yang dapat melatih Cursor serta siapa yang bisa membeli Cursor; Cursor tetap mengizinkan banyak model untuk sisi backend, tetapi arah jangka panjangnya bergantung pada apakah SpaceX menggunakan hak akuisisinya.
ChainNewsAbmedia15menit yang lalu
Penilaian pasar sekunder Anthropic menembus 1 triliun dolar: Forge Global mengungguli OpenAI sebesar 880 miliar
Berdasarkan laporan Decrypt, valuasi sekunder Anthropic dari Forge Global sekitar 1 triliun dolar, OpenAI sekitar 8.800 miliar dolar, dengan pembalikan tren yang pertama kali muncul di pasar sekunder. ARR Anthropic meningkat dari sekitar 9 miliar pada akhir 2025 menjadi sekitar 30 miliar pada Maret 2026, dengan pertumbuhan 233% selama tiga bulan, yang mendorong valuasi pasar privat. Valuasi sekunder berbeda dari pendanaan tahap awal, mencerminkan kepercayaan terhadap potensi keluar (exit); ke depan, masih mengamati empat jalur: teknologi, kebijakan, bisnis, dan narasi.
ChainNewsAbmedia16menit yang lalu
Meta Platforms Rencana Pengurangan Tenaga Kerja 10% pada 20 Mei, Berdampak pada Kira-kira 8.000 Posisi
Berita Gerbang, 24 April — Meta Platforms berencana mengurangi jumlah karyawannya sekitar 10%, memengaruhi kira-kira 8.000 posisi, pada 20 Mei. PHK tersebut dimaksudkan untuk meningkatkan efisiensi operasional sekaligus meningkatkan investasi dalam kecerdasan buatan.
Restrukturisasi yang direncanakan mencerminkan
GateNews1jam yang lalu
Pemerintahan Trump mengumumkan rencana penindakan terhadap pemurnian AI, menuduh perusahaan Tiongkok melakukan pencurian sistematis kemampuan model
Kantor Kebijakan Teknologi Gedung Putih (OSTP), Asisten Presiden Michael J. Kratsios, pada 23 April mengeluarkan pernyataan resmi yang menyatakan bahwa pemerintahan Trump memiliki informasi, yang menunjukkan bahwa entitas asing (terutama yang berbasis di Tiongkok) secara sengaja menargetkan perusahaan-perusahaan besar kecerdasan buatan (AI) Amerika melalui serangkaian ekstraksi kemampuan model AI AS secara sistematis, menggunakan “puluhan ribu akun agen” dan sistem teknologi jailbreak, serta sekaligus mengumumkan empat langkah respons.
MarketWhisper1jam yang lalu
DeepSeek meluncurkan V4 versi pratinjau sumber terbuka, penilaian teknis 3206 melampaui GPT-5.4
DeepSeek pada 24 April secara resmi meluncurkan rangkaian pratinjau V4, dengan lisensi MIT, dan merilis kode sumber secara terbuka. Bobot model telah disinkronkan dan tersedia di Hugging Face serta ModelScope. Berdasarkan laporan teknis DeepSeek V4, V4-Pro-Max (mode kekuatan penalaran tertinggi) memperoleh 3206 poin pada benchmark Codeforces, melampaui GPT-5.4.
MarketWhisper1jam yang lalu
Cambricon Menyelesaikan Adaptasi Day 0 DeepSeek-V4, Menandai Tonggak Penting untuk Ekosistem Chip AI Tiongkok
Pesan Berita Gate, 24 April — Cambricon mengumumkan hari ini bahwa mereka telah menyelesaikan adaptasi Day 0 dari DeepSeek-V4, model bahasa besar terbaru dari DeepSeek, menggunakan ekosistem perangkat lunak NeuWare milik mereka sendiri dan framework vLLM. Kode adaptasinya juga telah dibuka-sumber secara bersamaan, menandai yang
GateNews2jam yang lalu