Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Bắt đầu với Hợp đồng
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
OpenAI Just Told the Pentagon What It Wanted to Hear
Tôi là đội Anthropic. Đáng nói rõ ngay từ đầu.
Claude là mô hình AI duy nhất trong các mạng lưới phân loại của quân đội Mỹ. Không phải một trong nhiều — là duy nhất. Phân tích tình báo, lập kế hoạch tác chiến, hoạt động mạng, mô hình hóa và mô phỏng. Được tích hợp sâu đến mức một quan chức cấp cao của Pentagon thừa nhận việc rút nó ra sẽ là "một cơn đau khổ lớn."
Và rồi Anthropic nói không.
Pentagon muốn một điều khoản hợp đồng: tất cả các mục đích hợp pháp. Nghe có vẻ hợp lý cho đến khi bạn hiểu rõ điều gì là hợp pháp — phân tích hàng loạt dữ liệu vị trí thương mại, tín hiệu theo dõi sức khỏe, hồ sơ điện thoại, tất cả kết hợp quy mô lớn để tạo hồ sơ về dân thường Mỹ. Không phải là bất hợp pháp. Chắc chắn là giám sát. Anthropic đã vạch ra giới hạn ở đó, và về vũ khí tự động. Họ muốn điều đó được ghi rõ trong hợp đồng. Bộ Quốc phòng nói không. Các cuộc đàm phán đổ vỡ vào tháng 2.
Trump tuyên bố Anthropic là rủi ro chuỗi cung ứng và ra lệnh cho mọi cơ quan liên bang ngừng sử dụng công nghệ của họ. Thông báo đó thường dành cho các đối thủ nước ngoài. Đối với một công ty không cho phép quân đội do thám công dân của chính mình mà không hạn chế.
Chỉ vài giờ sau, OpenAI đã có thỏa thuận. Cùng điều khoản, Pentagon nói — nhưng các nhà phân tích đọc hợp đồng thực tế phát hiện ra việc triển khai chỉ trên đám mây và các tiêu chuẩn pháp lý không có trong đề nghị của Anthropic. Hãy tự suy nghĩ về điều đó.
Đây là điều tôi vẫn nghĩ đến. Anthropic biết chính xác vị trí của họ. Hiện tại họ có mô hình lý luận tốt nhất — không gần, Claude Opus 4.6 đạt 68.8% trên ARC-AGI-2, GPT đạt 52.9%. Chính phủ cũng biết điều đó. Họ muốn Claude đặc biệt. Họ đe dọa "bắt họ trả giá" đặc biệt. Và ngay cả sau tất cả, lựa chọn thay thế của họ là Grok, mà chính họ thừa nhận không phải là một sự thay thế hoàn hảo. Bạn không đưa ra một mối đe dọa như vậy với một nhà cung cấp mà bạn có thể bỏ đi.
Vì vậy, Anthropic có tất cả thế mạnh. Họ có mô hình mà không ai khác có thể sao chép, sự hiện diện duy nhất trong các hệ thống phân loại, và một nền tảng doanh thu đủ lớn để $200M trở thành tiếng ồn. Họ vẫn nói không. Và bây giờ họ phải trả giá cho điều đó.
Đó không phải là tử đạo — đó là một công ty hiểu rõ những gì mình đang nắm giữ. Khi bạn tin rằng bạn có thể đang xây dựng thứ gì đó không có giới hạn rõ ràng về khả năng, và chính phủ muốn vận hành nó trên chính công dân của mình mà không có giới hạn viết ra, bạn hoặc giữ vững lập trường đó hoặc không. Họ đã giữ vững.
Sách chơi của Altman cũ hơn. Cho người ta dùng miễn phí sản phẩm. Xây dựng thói quen quy mô lớn. Sau đó, thói quen đó có giá, và ai đó sẽ trả — nhà quảng cáo, rồi chính phủ, rồi người tiếp theo. Người dùng không cần hiểu chuỗi đó. Người dùng chỉ cần tiếp tục sử dụng.
Hầu hết không muốn biết. Điều đó cũng ổn. Kinh tế vẫn hoạt động theo cách đó.
Nhưng Pentagon vừa gặp phải phòng thí nghiệm AI duy nhất quyết định hợp đồng quan trọng hơn điều khoản. Rằng họ thích bị gắn nhãn là mối đe dọa an ninh quốc gia hơn là bỏ qua một dòng về giám sát. Và bất kể bạn nghĩ gì về ngành công nghiệp AI nói chung, quyết định cụ thể đó, dưới áp lực cụ thể đó — thật sự là điều bất thường.