Anthropic kiện chính phủ Hoa Kỳ! Yêu cầu hủy bỏ lệnh cấm "rủi ro chuỗi cung ứng" của Bộ Quốc phòng

動區BlockTempo

Công ty khởi nghiệp trí tuệ nhân tạo Anthropic và chính phủ Mỹ đang tiếp tục leo thang xung đột. Theo Reuters đưa tin, Bộ Quốc phòng Mỹ gần đây đã liệt kê Anthropic vào danh sách “nguy cơ chuỗi cung ứng” (supply-chain risk), hạn chế việc sử dụng công nghệ AI của họ trong các hợp đồng quân sự. Anthropic phản đối mạnh mẽ, cho rằng quyết định này “thiếu căn cứ pháp lý” và đã đệ đơn kiện lên tòa liên bang yêu cầu hủy bỏ quyết định đó.
(Tiền sử: Anthropic tái đàm phán hợp tác AI với Pentagon: cố giữ Claude trong hợp tác quốc phòng, nhưng kiên định giữ vững các giới hạn đạo đức)
(Bổ sung bối cảnh: CEO của Anthropic tuyên bố gay gắt: Các hợp đồng của OpenAI với Pentagon toàn là dối trá, Altman giả vờ làm đại sứ hòa bình)

Mục lục bài viết

Chuyển đổi

  • Bộ Quốc phòng Mỹ liệt Anthropic vào danh sách “nguy cơ chuỗi cung ứng”
  • Trọng tâm xung đột: AI có thể dùng để giám sát và làm vũ khí không?
  • Anthropic: cho rằng “thiếu căn cứ pháp lý” sẽ khởi kiện
  • Căng thẳng về ứng dụng quân sự của AI và đạo đức doanh nghiệp ngày càng gia tăng

Công ty trí tuệ nhân tạo Anthropic chính thức bước vào cuộc chiến pháp lý với chính phủ Mỹ. Bộ Quốc phòng Mỹ gần đây đã công bố liệt Anthropic vào danh sách “nguy cơ chuỗi cung ứng”, hạn chế việc sử dụng các mô hình AI của họ trong các hợp đồng liên quan đến quân sự. Ngược lại, Anthropic phản đối dữ dội, gọi hành động này là “chưa từng có và thiếu căn cứ pháp lý”, đồng thời đã đệ đơn kiện lên tòa liên bang yêu cầu hủy bỏ quyết định này và ngăn chặn chính phủ thực thi các hạn chế liên quan.

Bộ Quốc phòng Mỹ liệt Anthropic vào danh sách “nguy cơ chuỗi cung ứng”

Theo Reuters đưa tin trước đó, Bộ Quốc phòng Mỹ đã chính thức thông báo cho Anthropic rằng công ty cùng công nghệ AI của họ đã bị xác định là “nguy cơ chuỗi cung ứng”, quyết định này có hiệu lực ngay lập tức. Nhãn hiệu này thường được dùng để hạn chế các nhà cung cấp có thể gây nguy hiểm cho an ninh quốc gia, và có thể cấm sản phẩm của họ xuất hiện trong các hoạt động mua sắm quốc phòng hoặc hợp đồng quân sự.

Trên thực tế, điều này có nghĩa là các nhà thầu và nhà cung cấp hợp tác với quân đội Mỹ khi thực hiện các dự án liên quan đến quốc phòng có thể không được phép sử dụng các mô hình AI của Anthropic, ví dụ như hệ thống nổi tiếng Claude. Các chuyên gia nhận định, đây là một trường hợp cực kỳ hiếm hoi, vì các nhãn hiệu tương tự trước đây thường chỉ áp dụng cho các doanh nghiệp nước ngoài hoặc các nhà cung cấp bị coi là mối đe dọa an ninh quốc gia, chứ không phải các công ty AI trong nước.

Trọng tâm xung đột: AI có thể dùng để giám sát và làm vũ khí không?

Điểm cốt lõi của tranh cãi này xuất phát từ việc Anthropic phản đối giới hạn phạm vi sử dụng công nghệ AI của họ. Theo nhiều báo cáo, Anthropic rõ ràng từ chối cho phép các mô hình AI của họ được dùng cho hai mục đích có rủi ro cao, gồm:

  1. Các hệ thống vũ khí hoàn toàn tự động
  2. Giám sát quy mô lớn đối với công dân Mỹ

Tuy nhiên, Bộ Quốc phòng Mỹ trong các cuộc đàm phán mong muốn các mô hình AI này có thể được phép sử dụng cho “mọi mục đích hợp pháp”. Hai bên luôn bất đồng về các giới hạn an toàn, dẫn đến đổ vỡ trong đàm phán và cuối cùng chính phủ quyết định xác định Anthropic là “nguy cơ chuỗi cung ứng”.

Anthropic: cho rằng “thiếu căn cứ pháp lý” sẽ khởi kiện

CEO của Anthropic, ông Dario Amodei, cho biết công ty cho rằng quyết định của Bộ Quốc phòng “không có căn cứ pháp lý” và cảnh báo hành động này có thể tạo tiền lệ nguy hiểm, mở đường cho chính phủ trừng phạt các doanh nghiệp. Anthropic đã đệ đơn kiện lên tòa liên bang yêu cầu hủy bỏ quyết định này và cấm chính phủ thực thi các hạn chế.

Anthropic nhấn mạnh rằng, “nhãn hiệu nguy cơ chuỗi cung ứng” trước đây thường chỉ áp dụng cho các đối thủ nước ngoài, và việc áp dụng nó cho một công ty AI trong nước có thể gây ảnh hưởng sâu rộng đến toàn bộ ngành công nghệ và mô hình hợp tác giữa doanh nghiệp và chính phủ.

Căng thẳng về ứng dụng quân sự của AI và đạo đức doanh nghiệp ngày càng gia tăng

Các nhà phân tích nhận định, vụ kiện này phản ánh một thách thức mới mà ngành AI đang phải đối mặt: khi các mô hình lớn bắt đầu tham gia vào lĩnh vực quân sự và an ninh quốc gia, các doanh nghiệp có thể giới hạn cách chính phủ sử dụng công nghệ của họ hay không?

Một số chuyên gia chính sách cho rằng, nếu chính phủ có thể áp dụng các biện pháp trừng phạt kinh tế dựa trên các giới hạn an toàn do doanh nghiệp tự đặt ra, điều này có thể làm giảm quyền tự quyết của các công ty công nghệ trong việc đảm bảo an toàn và đạo đức của AI. Trong khi đó, phía quân đội cho rằng công nghệ AI mang tính chiến lược đối với an ninh quốc gia và không nên bị hạn chế quá mức.

Kết quả của vụ kiện này không chỉ quyết định liệu Anthropic có thể khôi phục hợp tác với chính phủ Mỹ hay không, mà còn có thể đặt ra tiền lệ quan trọng cho các mô hình hợp tác trong tương lai giữa các công ty AI và chính phủ.

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận