Anthropic kiện chính quyền Trump về việc phân loại 'Rủi ro chuỗi cung ứng'

Decrypt

Tóm tắt ngắn gọn

  • Anthropic đã kiện các cơ quan liên bang sau khi bị gán là “rủi ro chuỗi cung ứng” về an ninh quốc gia.
  • Tranh chấp bắt nguồn từ việc công ty từ chối cho phép sử dụng AI của mình một cách không hạn chế cho mục đích quân sự.
  • Việc gán nhãn này cấm các nhà thầu của Pentagon kinh doanh với công ty.

Anthropic đã đệ đơn kiện lên tòa án liên bang để chống lại danh sách đen toàn diện do chính quyền Donald Trump ban hành, cáo buộc chính phủ đã gán nhãn startup AI này là mối đe dọa an ninh quốc gia như một hình thức trả đũa cho việc công ty từ chối nới lỏng các quy trình an toàn. Vụ kiện, được nộp vào thứ Hai tại Tòa án Quận phía Bắc California của Hoa Kỳ, phản đối các hành động sau khi Tổng thống Trump chỉ đạo các cơ quan liên bang vào tháng 2 ngừng sử dụng công nghệ của Anthropic. Điều này xảy ra sau các bình luận công khai của CEO Dario Amodei, người nói rằng công ty sẽ không tuân thủ yêu cầu của Pentagon về việc truy cập không hạn chế vào Claude. Đơn kiện nêu tên nhiều cơ quan liên bang và các quan chức cấp cao là bị đơn, bao gồm Bộ trưởng Quốc phòng Pete Hegseth, Bộ trưởng Tài chính Scott Bessent, và Bộ trưởng Ngoại giao Marco Rubio. “Hiến pháp không cho phép chính phủ sử dụng quyền lực khổng lồ của mình để trừng phạt một công ty vì quyền tự do phát biểu của họ,” các luật sư của Anthropic nói trong đơn kiện. “Không có luật liên bang nào cho phép các hành động này. Anthropic dựa vào hệ thống tư pháp như một biện pháp cuối cùng để bảo vệ quyền lợi của mình và chấm dứt chiến dịch trả đũa bất hợp pháp của Chính phủ.”

Theo chỉ đạo của @POTUS, @USTreasury đang chấm dứt tất cả việc sử dụng các sản phẩm của Anthropic, bao gồm cả nền tảng Claude, trong bộ phận của chúng tôi.

Người dân Mỹ xứng đáng có niềm tin rằng mọi công cụ của chính phủ đều phục vụ lợi ích công cộng, và dưới thời Tổng thống Trump… https://t.co/R7rF0ci5CY

— Bộ trưởng Tài chính Scott Bessent (@SecScottBessent) ngày 2 tháng 3 năm 2026

Tranh chấp bắt đầu từ tháng 1 khi các quan chức Pentagon yêu cầu các nhà thầu AI cho phép hệ thống của họ được sử dụng cho “bất kỳ mục đích hợp pháp nào,” bao gồm cả ứng dụng quân sự. Trong khi đó, Anthropic đã ký hợp đồng trị giá 200 triệu USD với Bộ Quốc phòng, nhưng từ chối loại bỏ hai biện pháp bảo vệ ngăn cản việc sử dụng Claude cho giám sát trong nước quy mô lớn hoặc cho các hệ thống vũ khí chết người tự động hoàn toàn. “Các hành động bị kiện gây thiệt hại ngay lập tức và không thể khắc phục cho Anthropic; cho những người khác mà quyền tự do phát biểu của họ sẽ bị ảnh hưởng; cho những người hưởng lợi từ giá trị kinh tế mà công ty có thể tiếp tục tạo ra; và cho cộng đồng toàn cầu xứng đáng có đối thoại và tranh luận mạnh mẽ về ý nghĩa của AI trong chiến tranh và giám sát,” các luật sư của Anthropic tuyên bố trong đơn kiện. Đối với các nhà phát triển AI, bao gồm CEO Ben Goertzel của SingularityNET, việc gán nhãn này là một lựa chọn kỳ lạ và không phù hợp với ý nghĩa thông thường của một mối đe dọa chuỗi cung ứng, thứ thường dành cho phần mềm của đối thủ có thể chứa malware, virus hoặc spyware ẩn. “Anthropic không sẵn lòng để phần mềm của họ được sử dụng cho việc giết người tự động hoặc giám sát quy mô lớn dường như không gây ra rủi ro như vậy,” Goertzel nói với Decrypt. “Điều đó chỉ có nghĩa là nếu bạn muốn sử dụng phần mềm cho việc giết người tự động hoặc giám sát quy mô lớn, thì hãy mua phần mềm của người khác. Vì vậy, lý luận biến nó thành rủi ro chuỗi cung ứng khiến tôi không hiểu.” Goertzel cho biết sự khác biệt giữa các mô hình AI hàng đầu có thể hạn chế tác động thực tế của quyết định này.  “Cuối cùng, Claude, ChatGPT và Gemini không quá khác nhau,” ông nói. “Miễn là một trong những hệ thống hàng đầu này được chính phủ Hoa Kỳ sử dụng, thì tất cả đều về cùng một thứ. Và các cơ quan tình báo, dưới vỏ bọc của quyền tối mật, sẽ sử dụng phần mềm theo ý họ muốn.” Anthropic đang yêu cầu tòa án tuyên bố các hành động của chính phủ là bất hợp pháp và ngăn chặn việc thực thi nhãn “rủi ro chuỗi cung ứng” khiến các cơ quan liên bang và nhà thầu Pentagon không thể kinh doanh với công ty. “Không có lý do hợp lệ nào cho các hành động bị kiện,” đơn kiện nói. “Tòa án nên tuyên bố chúng là bất hợp pháp và cấm các bị đơn thực hiện bất kỳ bước nào để thực hiện chúng.” Anthropic ngay lập tức không phản hồi yêu cầu bình luận của Decrypt. Ngay cả sau khi gán nhãn Anthropic là mối đe dọa an ninh quốc gia, Claude vẫn được sử dụng trong các hoạt động quân sự đang diễn ra, bao gồm cả việc Bộ Tư lệnh Trung tâm Hoa Kỳ sử dụng để phân tích tình báo và xác định mục tiêu trong các cuộc tấn công vào Iran.

Jennifer Huddleston, chuyên gia cao cấp về chính sách công nghệ tại Viện Cato, đã chia sẻ trong một tuyên bố với Decrypt rằng vụ kiện này đặt ra mối lo ngại về các quyền bảo vệ theo Hiến pháp khi các tuyên bố về an ninh quốc gia bị sử dụng để biện minh cho hành động của chính phủ. “Trong quá khứ, các tòa án đã do dự trong việc đặt câu hỏi về các tuyên bố của chính phủ về mối quan ngại an ninh quốc gia, nhưng hoàn cảnh của vụ việc này chắc chắn làm nổi bật rủi ro thực sự đối với quyền tự do ngôn luận của người Mỹ nếu các xem xét cơ bản của các tuyên bố đó không được kiểm tra kỹ lưỡng,” bà nói.

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận