Результаты поиска для "CODE"
Сегодня
05:17

GPT-5.5 Возвращается на Передний край в Кодинге, но OpenAI Меняет Бенчмарки После Поражения Opus 4.7

Gate News сообщение, 27 апреля — SemiAnalysis, фирма по анализу полупроводников и ИИ, опубликовала сравнительный бенчмарк ассистентов для программирования, включая GPT-5.5, Claude Opus 4.7 и DeepSeek V4. Ключевой вывод: GPT-5.5 знаменует собой первый возврат OpenAI на передний край в моделях для кодинга за последние шесть месяцев, при этом инженеры SemiAnalysis теперь чередуют между Codex и Claude Code после того, как ранее почти исключительно полагались на Claude. GPT-5.5 основана на новом подходе к предварительному обучению с кодовым названием "Spud" и представляет собой первое расширение масштаба предварительного обучения OpenAI со времён GPT-4.5. При практических испытаниях проявилось явное разделение ролей. Claude отвечает за планирование новых проектов и первичную настройку, тогда как Codex особенно силён в исправлениях багов, требующих интенсивных рассуждений. Codex демонстрирует более сильное понимание структур данных и логических рассуждений, но испытывает трудности с тем, чтобы выводить неоднозначные намерения пользователя. В задаче на одной панели Claude автоматически воссоздал компоновку эталонной страницы, но сфабриковал большие объёмы данных, тогда как Codex пропустил компоновку, зато предоставил значительно более точные данные. Анализ выявляет деталь манипуляции бенчмарком: февральский блог OpenAI призывал отрасль перейти на SWE-bench Pro как новый стандарт для бенчмарков кода. Однако в объявлении GPT-5.5 переход осуществлён на новый бенчмарк под названием "Expert-SWE." Причина, спрятанная в мелком шрифте, заключается в том, что GPT-5.5 был обойдён Opus 4.7 на SWE-bench Pro и заметно уступил ненадлежащим образом не раскрытому Anthropic Mythos 77.8%. Что касается Opus 4.7, Anthropic опубликовала разбор последствий через неделю после релиза, признав три ошибки в Claude Code, которые сохранялись в течение нескольких недель с марта по апрель, затрагивая почти всех пользователей. Ранее несколько инженеров сообщали о деградации производительности в версии 4.6, но их замечания были отклонены как субъективные. Кроме того, новый токенизатор Opus 4.7 увеличивает использование токенов до 35%, что Anthropic откровенно признала — фактически это означает скрытое повышение цены. DeepSeek V4 оценили как "удерживающий темп с передним краем, но не ведущий," позиционируя себя как самый бюджетный вариант среди закрытых моделей. Анализ также отметил, что "Claude по-прежнему превосходит DeepSeek V4 Pro в высокосложных задачах китайской письменности," и прокомментировал, что "Claude выиграл у китайской модели на её родном языке." В статье вводится ключевая идея: цена модели должна оцениваться через "стоимость за задачу," а не через "стоимость за токен." Прайсинг GPT-5.5 вдвое выше, чем у GPT-5.4 input $5, output за миллион токенов, но он выполняет те же задачи, используя меньшее число токенов, поэтому фактическая стоимость не обязательно выше. Первичные данные SemiAnalysis показывают, что коэффициент входов к выходам у Codex составляет 80:1, что ниже, чем 100:1 у Claude Code.
Больше
03:53

Министр иностранных дел Сингапура развернул пользовательского ИИ-ассистента на Raspberry Pi с помощью Claude Code

Сообщение Gate News, 27 апреля — министр иностранных дел Сингапура Вивиан Балакришнан недавно объявил, что построил собственную систему ИИ-ассистента, которую он называет «вторым мозгом дипломата», работающую на Raspberry Pi 5 (кредит-карт размером микро-компьютере). Система интегрируется с его WhatsApp и Gmail,
Больше
12:48

Anthropic откатывает изменения Claude Code после снижения качества; все исправления завершены

Сообщение Gate News от 24 апреля — Anthropic признала недавнее снижение качества Claude Code и подтвердила, что все связанные проблемы были устранены с помощью откатов и исправлений. Проблемы возникли из-за трех изменений продукта и подсказок, внесенных в период между началом и серединой апреля. 4 марта,
Больше
08:33

Anthropic запускает /ultrareview для Claude Code: облачное код-ревью с мультиагентной моделью

Сообщение Gate News от 23 апреля — Anthropic представила /ultrareview (исследовательский превью), облачную функцию код-ревью с набором мультиагентных специалистов для Claude Code. Пользователи могут ввести /ultrareview в CLI, чтобы запустить группу агентов ревью в удалённой песочнице, где они работают параллельно, чтобы проанализировать разницы (diff) между текущей веткой и веткой по умолчанию включая незафиксированные изменения, или напрямую выполнить ревью GitHub PR, указав номер PR. Весь процесс не требует локальных ресурсов и обычно занимает от 5 до 10 минут, а результаты возвращаются в рамках сессии в виде уведомлений.
Больше
07:05

Удаление Claude Code от Anthropic вызывает волну негодования у разработчиков; OpenAI получает поддержку сообщества

Anthropic убирает Claude Code из Pro, вызывая критику, пока разработчики переходят на OpenAI; Codex остается бесплатным/базовым, GPT-5.4 и Image 2.0 повышают производительность, ускоряя массовую миграцию пользователей. Аннотация: В статье рассматривается удаление Claude Code из плана $20 Pro у Anthropic, что вызывает ответную реакцию со стороны разработчиков, которые называют это скрытым повышением цены и риском для надежности. Проводится сравнение с политикой OpenAI, которая сохраняет Codex в бесплатных и базовых тарифах, при этом подчеркивается высокая производительность моделей GPT-5.4 и ChatGPT Images 2.0, и отмечается быстрое переселение пользователей на OpenAI, причем Codex, как сообщается, превысил 4 миллиона еженедельных активных пользователей.
Больше
06:45

Спор о политике OpenClaw в отношении Claude CLI: неверное прочтение заявления Anthropic Штайнбергером, а не изменение политики

Сообщение Gate News, 22 апреля — Согласно разъяснению со стороны платформы, Anthropic не смягчала свою политику по использованию Claude CLI для сторонних инструментов вроде OpenClaw. Похоже, что кажущееся изменение политики на самом деле является неверным толкованием со стороны основателя OpenClaw Питера Штайнбергера заявления, сделанного Клодом Code
Больше
04:51

Snowflake расширяет линейку AI-продуктов: новые коннекторы и инструменты для разработчиков

Сообщение Gate News, 22 апреля — Snowflake объявила о расширении своих AI-продуктов Snowflake Intelligence и Cortex Code, поскольку компании ускоряют внедрение ИИ: от пилотных программ до производственных сред. Snowflake Intelligence добавила коннекторы для Gmail, Google Calendar, Google Docs, Jira,
Больше
02:23

Claude Code запускает функцию автоматического исправления в командной строке, которая может обрабатывать сбои CI для PR и комментарии

Claude Code запускает новую функцию: пользователи могут включить автоматическое исправление с помощью команды в командной строке /autofix-pr. После завершения PR выполнение этой команды загрузит сессию в облако и автоматически обработает сбои CI и комментарии к коду.
Больше
06:36

Утечка 510 тысяч строк кода Anthropic Claude, план IPO на 350 миллиардов долларов находится под ударом

Anthropic 31 марта неожиданно раскрыла 512 000 строк исходного кода Claude Code, что вызвало опасения по поводу рисков безопасности и рыночной оценки. После утечки код быстро распространился на GitHub и привёл к удалению по DMCA. Содержимое утечки раскрыло внутренние функции и не опубликованные детали, выявив риски безопасности, с которыми сталкивается компания. Инцидент подчёркивает, что ИИ-компаниям нужно усилить безопасность кода и управление доступами, а также может повлиять на перспективы Anthropic перед IPO.
Больше
10:01

Утечка полного исходного кода npm-пакета программного инструмента Anthropic AI Claude Code

Блокчейн-компания по безопасности Fuzzland в своем исследовании показала, что npm-пакет AI-инструмента для программирования Claude Code от Anthropic содержит полный файл source map, что раскрывает код 1,906 исходных файлов. Хотя ранее подобные файлы были удалены, в новой версии проблема по-прежнему присутствует, что приводит к раскрытию внутренней архитектуры и механизмов безопасности. Это утечка не затрагивает пользовательские данные, но влияет на безопасность.
Больше