Результати пошуку для "DEEPSEEK"
2026-04-30
11:04

DeepSeek 30 квітня представив метод Visual Primitives для покращення мультимодальних міркувань

Згідно з технічним звітом DeepSeek, 30 квітня компанія представила Visual Primitives — метод, який вбудовує базові візуальні одиниці, зокрема точки та рамки, у ланцюжки міркувань, щоб вирішити проблему Reference Gap у мультимодальних завданнях. Метод зменшує споживання токенів зображень
Більше
04:17

Вартість GPU Nvidia Blackwell подвоюється, але витрати на інференс у перерахунку на токен падають у 35 разів порівняно з Hopper

Згідно з останнім блоговим аналізом Nvidia, GPU Blackwell коштують майже вдвічі дорожче за годину, ніж покоління Hopper, але забезпечують у 35 разів нижчі витрати на інференс на один токен. Використовуючи DeepSeek-R1 як тестову модель, Blackwell (GB300 NVL72) здається в оренду за $2,65 за GPU на годину проти $1,41 для Hopper, але один GPU
Більше
13:41

Alibaba Cloud знизила ціну неявного кешу DeepSeek-V4-Pro до 1 юаня за мільйон токенів 29 квітня

Згідно з Alibaba Cloud, її платформа Bailian знизить ціну для неявного кешу (Implicit Cache) моделі DeepSeek-V4-Pro до 1 юаня за мільйон токенів з 29 квітня 2026 року о 23:59:59 за пекинським часом. Неявний кеш застосовується лише тоді, коли запити потрапляють у кеш; кешовані вхідні токени виставляються за тарифом cached_token, тоді як некешовані вхідні токени стягуються за стандартними тарифами input_token. Коригування стосується лише ціни неявного кешу; тарифи базового рендерингу моделі залишаються без змін.
10:37

DeepSeek запускає функцію розпізнавання зображень у режимі бета-тестування

Згідно з PANews, DeepSeek сьогодні запустила свою функцію розпізнавання зображень (29 квітня), наразі вона перебуває на бета-тестуванні. Як користувачі вебверсії, так і мобільного застосунку можуть бути відібрані для бета-розгортання.
09:09

Дослідник мультимодального напрямку DeepSeek натякає на нову візійну модель 29 квітня

29 квітня дослідник мультимодальної команди DeepSeek Сяокан Чень опублікував на X: «Тепер ми бачимо вас», супроводивши це двома зображеннями китового талісмана DeepSeek — одне з заплющеними очима, а інше з розплющеними. Пост, схоже, натякає на майбутню візійну модель, що відповідає ролі Ченя як дослідника в Dee
Більше
11:02

Kimi K2.6 очолює рейтинги LLM OpenRouter у перший тиждень, використання зростає на 7 683%

Повідомлення Gate News, 28 квітня — Kimi K2.6, флагманська модель від Moonshot AI, досягла першого місця в щотижневих рейтингах LLM OpenRouter, споживши 1,88 трильйона токенів, та виросла на 7 683% у порівнянні з попереднім тижнем. Модель, запущена на OpenRouter 20 квітня, випередила Claude Sonnet 4.6 (1.35T, -3%) та DeepSeek
Більше
01:16
1

DeepSeek збільшив(ла) статутний капітал на 50%, частка засновника Лян Веньфеня зросла до 34%

Повідомлення Gate News, 28 квітня — Згідно з даними Qichacha, DeepSeek (Hangzhou Deepseek AI Basic Technology Research Co., Ltd.) збільшив(ла) статутний капітал із 10 млн юанів до 15 млн юанів. Частка засновника Лян Веньфеня у статутному капіталі зросла з 1 млн юанів до 5,1 млн юанів
Більше
00:30

ZetaChain запускає Anuma — платформу для агрегування ШІ з фокусом на конфіденційність

Повідомлення Gate News, 28 квітня — команда ZetaChain офіційно запустила Anuma, платформу для агрегування ШІ з фокусом на конфіденційність, яка дає змогу користувачам отримувати доступ до кількох моделей ШІ—включно з GPT, Claude, Gemini, Grok, DeepSeek, Kimi та Qwen—через єдиний інтерфейс. Anuma має локальне сховище для конфіденційності,
Більше
06:31

DeepSeek знижує ціни на V4-Pro на 75% і скорочує витрати на кеш API до однієї десятої

Повідомлення Gate News, 27 квітня — DeepSeek оголосила знижку 75% на свою нову модель V4-Pro для розробників і знизила ціни на кеш вхідних даних у всій лінійці API до однієї десятої від попередніх рівнів. Модель V4, випущена 25 квітня у версіях Pro і Flash, була оптимізована під процесори Ascend від Huawei
Більше
05:17

GPT-5.5 повертається на передній край у кодуванні, але OpenAI змінює бенчмарки після поразки від Opus 4.7

Повідомлення Gate News, 27 квітня — SemiAnalysis, компанія з аналізу напівпровідників та ШІ, опублікувала порівняльний бенчмарк асистентів для кодування, зокрема GPT-5.5, Claude Opus 4.7 і DeepSeek V4. Ключовий висновок: GPT-5.5 означає перше повернення OpenAI на передній край у моделях для кодування за шість місяців, причому інженери SemiAnalysis тепер чергують між Codex і Claude Code після того, як раніше майже виключно покладалися на Claude. GPT-5.5 створено на основі нового підходу до попереднього навчання з кодовою назвою "Spud" і є першим розширенням масштабу попереднього навчання OpenAI з моменту GPT-4.5. У практичному тестуванні чітко проявився розподіл ролей. Claude береться за планування нових проєктів та початкове налаштування, тоді як Codex найкраще справляється з виправленнями багів, що потребують інтенсивного осмислення. Codex демонструє сильніше розуміння структур даних і логічного міркування, але має труднощі з тим, щоб вгадувати неоднозначні наміри користувача. В одній задачі на єдиній панелі керування Claude автоматично відтворив макет сторінки-зразка, але сфабрикував великі обсяги даних, тоді як Codex пропустив макет, зате видав значно точніші дані. Аналіз виявляє деталь маніпуляції бенчмарком: у лютневому блозі OpenAI закликав індустрію перейти на SWE-bench Pro як новий стандарт для бенчмарків кодування. Однак у повідомленні про GPT-5.5 перехід здійснили на новий бенчмарк під назвою "Expert-SWE." Причина, захована в дрібному шрифті, полягає в тому, що GPT-5.5 було випереджено Opus 4.7 на SWE-bench Pro і він суттєво відстав від неопублікованого Mythos 77.8% від Anthropic. Щодо Opus 4.7: Anthropic опублікувала постмортем-аналіз через тиждень після релізу, визнавши три баги в Claude Code, які зберігалися протягом кількох тижнів з березня по квітень, впливаючи майже на всіх користувачів. Раніше кілька інженерів повідомляли про погіршення продуктивності в версії 4.6, але їх відхилили, назвавши суб’єктивними спостереженнями. Крім того, новий токенізатор у Opus 4.7 збільшує використання токенів до 35%, що Anthropic прямо визнав — по суті, це приховане підвищення ціни. DeepSeek V4 оцінили як "дотримання темпу з переднім краєм, але без лідерства," позиціонуючи його як найдешевшу альтернативу серед моделей із закритим кодом. Аналіз також зазначив, що "Claude продовжує випереджати DeepSeek V4 Pro у завданнях із високою складністю китайського письма," коментуючи, що "Claude переміг китайську модель у її власній мові." У статті вводиться ключова ідея: ціноутворення моделей слід оцінювати за "вартістю за задачу" замість "вартості за токен." Ціна GPT-5.5 удвічі вища за ціну GPT-5.4 input $5, output per million tokens, але він виконує ті самі завдання, використовуючи менше токенів, тож фактична вартість не обов’язково вища. Початкові дані SemiAnalysis показують, що співвідношення вхідних і вихідних даних у Codex становить 80:1, що нижче, ніж у Claude Code — 100:1.
Більше