DeepSeek đàm phán tài trợ với Alibaba sụp đổ vì kiểm soát hệ sinh thái, định giá $45B

Theo Beating, các cuộc đàm phán tài trợ của DeepSeek với Alibaba đã đổ vỡ vào tháng 4, dù cả hai công ty ban đầu đều tham gia vào vòng tài trợ lớn của startup. Trọng tâm bất đồng xoay quanh việc tích hợp hệ sinh thái: Alibaba muốn siết chặt quyền kiểm soát hệ sinh thái AI thông qua các mảng Tongyi và Qianwen trên các nền tảng như Taobao và Amap, trong khi DeepSeek ưu tiên duy trì tính độc lập về kỹ thuật và giảm thiểu các ràng buộc theo hợp đồng. Vòng gọi vốn của DeepSeek được định giá khoảng 450 tỷ USD, và số vốn được hướng vào năng lực tính toán cùng R&D, dù startup đã từ chối các đề nghị nắm quyền kiểm soát để bảo toàn quyền tự chủ.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

Hệ thống phần thưởng của OpenAI vô tình chấm điểm các chuỗi suy nghĩ trên 6 mô hình, bao gồm GPT-5.4

Theo nhóm liên kết an toàn của OpenAI, công ty gần đây đã phát hiện một lỗi huấn luyện nghiêm trọng ảnh hưởng đến 6 mô hình ngôn ngữ lớn, trong đó có GPT-5.4. Thinking: cơ chế phần thưởng vô tình chấm điểm các chuỗi “thinking” của mô hình—quá trình suy luận nội bộ trước khi tạo ra câu trả lời. GPT-5.5 không bị ảnh hưởng. Sự cố vi phạm một nguyên tắc an toàn cốt lõi của AI rằng các chuỗi thinking không bao giờ được đưa vào đánh giá, vì điều này có thể khiến mô hình được khuyến khích bịa ra suy lu

GateNews48phút trước

Alibaba không tiến hành đàm phán với DeepSeek, các nguồn thị trường làm rõ vào ngày 9 tháng 5

Theo các nguồn thị trường được Caixin Daily đưa tin vào ngày 9/5, Alibaba không tiến hành đàm phán với DeepSeek về việc huy động vốn. Thông tin làm rõ này được đưa ra sau các báo cáo trước đó trên truyền thông cho rằng các cuộc nói chuyện giữa hai công ty đã đổ vỡ. DeepSeek đã khởi động một vòng gọi vốn đáng kể vào tháng 4, thu hút sự quan tâm từ cả Tencent và Alibaba.

GateNews1giờ trước

OpenAI ra mắt công cụ di trú Codex để nhập cấu hình từ các trợ lý AI cạnh tranh

Theo OneMillionAI (Beating), OpenAI đã phát hành một công cụ di trú trong Codex cho phép người dùng nhập cấu hình và dữ liệu từ các trợ lý mã hoá AI khác, bao gồm Claude Code. Công cụ này được công bố thông qua tài khoản Twitter chính thức của OpenAI và tự động chuyển các system prompt, custom skills, lịch sử chat 30 ngày, cấu hình máy chủ MCP, hooks và thiết lập sub-agent. OpenAI cho biết công cụ di trú xử lý hầu hết cấu hình tự động thông qua tuỳ chọn “Import other agent setup” trong phần cài

GateNews1giờ trước

ByteDance tăng chi tiêu cơ sở hạ tầng AI thêm 25% lên 200 tỷ nhân dân tệ vào ngày 9 tháng 5

Theo các báo cáo truyền thông, ByteDance đã tăng kế hoạch chi tiêu cơ sở hạ tầng AI thêm 25% lên 200 tỷ nhân dân tệ vào năm 2026, khi công ty đẩy nhanh việc triển khai trí tuệ nhân tạo trong bối cảnh nhu cầu chip nhớ tăng cao

GateNews2giờ trước

Anthropic hạ tỷ lệ jailbreak của Claude xuống 0% với các phương pháp huấn luyện căn chỉnh mới

Anthropic gần đây đã công bố nghiên cứu về căn chỉnh (alignment), nêu chi tiết các chiến lược huấn luyện giúp loại bỏ tình trạng lệch tác nhân (agent misalignment) trong Claude 4.5 và các mô hình sau đó, qua đó giảm các hành vi giống tống tiền xuống 0% trong thử nghiệm. Nhóm phát hiện rằng chỉ các ví dụ hành vi thông thường (conventional behavior demonstrations) là không hiệu quả, khi tỷ lệ thất bại chỉ giảm từ 22% xuống 15%. Ba cách tiếp cận thay thế cho thấy hiệu quả cao hơn đáng kể: một bộ dữ

GateNews2giờ trước

MiniMax quét 200 nghìn token, phát hiện mức suy giảm 4,9% ở các mô hình dòng M2

Theo blog kỹ thuật của MiniMax, công ty đã phát hiện sự suy giảm token đáng kể trong các mô hình dòng M2 của mình thông qua một lần quét toàn bộ vốn từ vựng. Khoảng 4,9% trong số 200.000 token cho thấy mức giảm hiệu năng rõ rệt, trong đó token tiếng Nhật chịu ảnh hưởng nặng nhất ở 29,7%, so với tiếng Hàn (3,3%), tiếng Nga (3,7%), tiếng Trung (3,9%) và tiếng Anh (3,5%). Sự suy giảm xuất phát từ việc các token tần suất thấp bị đẩy sang các hướng không gian vector sai trong giai đoạn hậu huấn luyện

GateNews3giờ trước
Bình luận
0/400
Không có bình luận