Pentagon cứng rắn hơn với tối hậu thư của mình đối với Anthropic trong cuộc tranh cãi về việc sử dụng AI

Bộ Quốc phòng Mỹ tăng cường cứng rắn với Anthropic trong cuộc tranh chấp về việc sử dụng AI

Iain Marlow

Thứ Sáu, ngày 27 tháng 2 năm 2026 lúc 4:37 sáng GMT+9 2 phút đọc

Trong bài viết này:

ANTH.PVT

(Bloomberg) – Bộ Quốc phòng Mỹ đã leo thang tranh chấp kéo dài với Anthropic PBC vào thứ Năm, công khai đe dọa cấm hoạt động của startup trí tuệ nhân tạo này khỏi chuỗi cung ứng rộng lớn của quân đội Mỹ.

Trong một bài đăng trên mạng xã hội, phát ngôn viên chính của Bộ Quốc phòng, Sean Parnell, đã cảnh báo Anthropic về hạn chót là 5:01 chiều thứ Sáu tại Washington để cho phép Bộ Quốc phòng sử dụng không hạn chế các công cụ AI Claude Gov của Anthropic sau khi công ty này đã khăng khăng yêu cầu một số biện pháp bảo vệ.

Đọc nhiều nhất từ Bloomberg

Các tòa nhà "Graffiti Towers" phá sản của LA tìm được người mua với giá 470 triệu đô la
Chuyên gia bảo hiểm đánh giá an toàn của xe tự lái
Đề xuất thuế mới nhằm vào sở thích ăn mặn của Thái Lan
Oslo xây dựng lại Quận Chính phủ với trọng tâm mới: Mở cửa
Thời điểm khó khăn để là một nhà phát triển bất động sản da đen

“Đây là một yêu cầu đơn giản, hợp lý sẽ ngăn Anthropic gây nguy hiểm cho các hoạt động quân sự quan trọng và có thể đặt các chiến binh của chúng ta vào rủi ro,” Parnell viết. Một quan chức cao cấp của Bộ Quốc phòng xác nhận vào thứ Năm rằng Bộ đã gửi đề nghị cuối cùng tới Anthropic vào thứ Tư.

Trong các cuộc thảo luận với Bộ Quốc phòng, Anthropic đã yêu cầu các quan chức Mỹ không sử dụng sản phẩm của họ để tạo ra vũ khí tự động nhắm mục tiêu đối phương hoặc tiến hành giám sát quy mô lớn đối với công dân Mỹ, theo những người quen thuộc với vấn đề.

Bộ Quốc phòng đã phản đối và yêu cầu quyền sử dụng Claude, một trong số ít công cụ AI được phép làm việc trên đám mây có phân loại, mà không bị hạn chế bởi công ty. Bộ Quốc phòng cũng đã đe dọa sử dụng Đạo luật Sản xuất Quốc phòng thời Chiến tranh Lạnh để sử dụng phần mềm của Anthropic bất kể.

Bài đăng trên X của Parnell vào thứ Năm là tuyên bố chính thức đầu tiên của bộ về các hậu quả tiềm tàng.

Bộ Quốc phòng không quan tâm đến giám sát quy mô lớn hoặc phát triển “vũ khí tự động hoạt động mà không cần sự tham gia của con người,” Parnell viết.

“Chúng tôi sẽ không để bất kỳ công ty nào quyết định các điều khoản về cách chúng tôi đưa ra các quyết định vận hành,” ông tiếp tục. “Họ có thời hạn đến 5:01 chiều giờ miền Đông thứ Sáu để quyết định. Nếu không, chúng tôi sẽ chấm dứt hợp tác với Anthropic và coi họ là rủi ro trong chuỗi cung ứng.”

–Với sự hỗ trợ của Katrina Manson.

Đọc nhiều nhất từ Bloomberg Businessweek

Covid âm thầm tái cấu trúc lại não bộ như thế nào
Mã Claude và cơn hoảng loạn năng suất lớn của năm 2026
Món tráng miệng Ấn Độ đã sẵn sàng cho khoảnh khắc matcha của họ
Tình yêu Ube của Mỹ đang gây căng thẳng nguồn cung tại Philippines
Phán quyết về thuế của Tòa án Tối cao là một món quà bí mật cho Trump

©2026 Bloomberg L.P.

Điều khoản và Chính sách quyền riêng tư

Bảng điều khiển quyền riêng tư

Thêm thông tin

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Vốn hóa:$2.49KNgười nắm giữ:2
    0.00%
  • Vốn hóa:$2.49KNgười nắm giữ:2
    0.00%
  • Vốn hóa:$0.1Người nắm giữ:1
    0.00%
  • Ghim