"DEEPSEEK"検索結果
2026-04-30
11:04

DeepSeekは4月30日にマルチモーダル推論を強化するために視覚プリミティブ方式を導入

DeepSeekの技術レポートによると、4月30日、同社はVisual Primitives(ビジュアル・プリミティブ)を導入しました。これは、マルチモーダル課題におけるReference Gap問題に対処するために、点やバウンディングボックスなどの基本的な視覚要素を推論チェーンに埋め込む手法です。この方法は画像トークンの消費を削減します
もっと
04:17

Nvidia Blackwell GPUのコストは2倍になるが、1トークンあたりの推論コストはHopperに比べて35倍分下がる

Nvidiaの最新ブログ分析によると、Blackwell GPUはHopper世代と比べて1時間あたりの費用がほぼ2倍ですが、1トークンあたりの推論コストは35分の1と大幅に低くなります。テストモデルとしてDeepSeek-R1を使用すると、Blackwell(GB300 NVL72)はGPU 1台あたり1時間$2.65でレンタルできるのに対し、Hopperは$1.41ですが、単一GPUでは
もっと
13:41

Alibaba Cloudが4月29日にDeepSeek-V4-Proの暗黙キャッシュ価格を百万トークンあたり1元に引き下げ

Alibaba Cloudによると、BailianプラットフォームはDeepSeek-V4-Proモデルの暗黙キャッシュ (Implicit Cache) の価格を、北京時間の2026年4月29日23:59:59より、百万トークンあたり1元に引き下げます。暗黙キャッシュはリクエストがキャッシュにヒットした場合にのみ適用されます。キャッシュされた入力トークンはcached_tokenレートで課金され、キャッシュされていない入力トークンは標準のinput_tokenレートで課金されます。調整は暗黙キャッシュの価格のみに影響し、ベースモデルの推論レートは変更されません。
09:09

DeepSeekマルチモーダル研究者が4月29日に新たなビジョンモデルを示唆

4月29日、DeepSeekマルチモーダルチームのリサーチャーである謝小康(Xiaokang Chen)がXに投稿した。「今、私たちはあなたを見ています」とし、DeepSeekのクジラのマスコットの2枚の画像を添えている。1枚は目を閉じたもの、もう1枚は目を開けたものだ。この投稿は、近日公開予定のビジョンモデルを示唆しているように見え、DeepSeekのマルチモーダルチームにおけるChenの研究者としての役割と一致している。
もっと
00:30

ZetaChainがプライバシー重視のAI集約プラットフォームAnumaをローンチ

Gate Newsのメッセージ、4月28日 — ZetaChainのチームは、プライバシー重視のAI集約プラットフォーム「Anuma」を正式に立ち上げました。これにより、ユーザーは単一のインターフェースから、GPT、Claude、Gemini、Grok、DeepSeek、Kimi、Qwenなど複数のAIモデルにアクセスできます。 Anumaはローカルなプライバシー保管、マルチモデル連携、そして異なるモデル間での統一されたコンテキスト・メモリ・システムを備えています。プラットフォームのWebインターフェースは現在利用可能です。
もっと
06:31

DeepSeek、V4-Proの価格を75%引き下げ、APIキャッシュコストを1/10に圧縮

Gateニュースメッセージ、4月27日 — DeepSeekは、新しいV4-Proモデルを開発者向けに75%割引すると発表し、APIラインナップ全体における入力キャッシュヒットの価格を、従来の水準の1/10に引き下げました。 V4モデルは4月25日にPro版およびFlash版としてリリースされ、HuaweiのAscendプロセッサ向けに最適化されています
もっと
05:17

GPT-5.5がコーディングの最前線に復帰、しかしOpenAIはOpus 4.7に敗れた後でベンチマークを切り替え

ゲートニュース 4月27日 — 半導体およびAI分析企業のSemiAnalysisは、GPT-5.5、Claude Opus 4.7、DeepSeek V4を含むコーディングアシスタントの比較ベンチマークを公開した。主要な発見:GPT-5.5は、コーディングモデルにおいて、OpenAIが6か月ぶりに最先端へ戻ったことを示す。S
もっと