Công ty khởi nghiệp trí tuệ nhân tạo Anthropic và chính phủ Mỹ đang tiếp tục leo thang xung đột. Theo Reuters đưa tin, Bộ Quốc phòng Mỹ gần đây đã liệt kê Anthropic vào danh sách “nguy cơ chuỗi cung ứng” (supply-chain risk), hạn chế việc sử dụng công nghệ AI của họ trong các hợp đồng quân sự. Anthropic phản đối mạnh mẽ, cho rằng quyết định này “thiếu căn cứ pháp lý” và đã đệ đơn kiện lên tòa liên bang yêu cầu hủy bỏ quyết định đó.
(Tiền sử: Anthropic tái đàm phán hợp tác AI với Pentagon: cố giữ Claude trong hợp tác quốc phòng, nhưng kiên định giữ vững các giới hạn đạo đức)
(Bổ sung bối cảnh: CEO của Anthropic tuyên bố gay gắt: Các hợp đồng của OpenAI với Pentagon toàn là dối trá, Altman giả vờ làm đại sứ hòa bình)
Mục lục bài viết
Chuyển đổi
Công ty trí tuệ nhân tạo Anthropic chính thức bước vào cuộc chiến pháp lý với chính phủ Mỹ. Bộ Quốc phòng Mỹ gần đây đã công bố liệt Anthropic vào danh sách “nguy cơ chuỗi cung ứng”, hạn chế việc sử dụng các mô hình AI của họ trong các hợp đồng liên quan đến quân sự. Ngược lại, Anthropic phản đối dữ dội, gọi hành động này là “chưa từng có và thiếu căn cứ pháp lý”, đồng thời đã đệ đơn kiện lên tòa liên bang yêu cầu hủy bỏ quyết định này và ngăn chặn chính phủ thực thi các hạn chế liên quan.
Theo Reuters đưa tin trước đó, Bộ Quốc phòng Mỹ đã chính thức thông báo cho Anthropic rằng công ty cùng công nghệ AI của họ đã bị xác định là “nguy cơ chuỗi cung ứng”, quyết định này có hiệu lực ngay lập tức. Nhãn hiệu này thường được dùng để hạn chế các nhà cung cấp có thể gây nguy hiểm cho an ninh quốc gia, và có thể cấm sản phẩm của họ xuất hiện trong các hoạt động mua sắm quốc phòng hoặc hợp đồng quân sự.
Trên thực tế, điều này có nghĩa là các nhà thầu và nhà cung cấp hợp tác với quân đội Mỹ khi thực hiện các dự án liên quan đến quốc phòng có thể không được phép sử dụng các mô hình AI của Anthropic, ví dụ như hệ thống nổi tiếng Claude. Các chuyên gia nhận định, đây là một trường hợp cực kỳ hiếm hoi, vì các nhãn hiệu tương tự trước đây thường chỉ áp dụng cho các doanh nghiệp nước ngoài hoặc các nhà cung cấp bị coi là mối đe dọa an ninh quốc gia, chứ không phải các công ty AI trong nước.
Điểm cốt lõi của tranh cãi này xuất phát từ việc Anthropic phản đối giới hạn phạm vi sử dụng công nghệ AI của họ. Theo nhiều báo cáo, Anthropic rõ ràng từ chối cho phép các mô hình AI của họ được dùng cho hai mục đích có rủi ro cao, gồm:
Tuy nhiên, Bộ Quốc phòng Mỹ trong các cuộc đàm phán mong muốn các mô hình AI này có thể được phép sử dụng cho “mọi mục đích hợp pháp”. Hai bên luôn bất đồng về các giới hạn an toàn, dẫn đến đổ vỡ trong đàm phán và cuối cùng chính phủ quyết định xác định Anthropic là “nguy cơ chuỗi cung ứng”.
CEO của Anthropic, ông Dario Amodei, cho biết công ty cho rằng quyết định của Bộ Quốc phòng “không có căn cứ pháp lý” và cảnh báo hành động này có thể tạo tiền lệ nguy hiểm, mở đường cho chính phủ trừng phạt các doanh nghiệp. Anthropic đã đệ đơn kiện lên tòa liên bang yêu cầu hủy bỏ quyết định này và cấm chính phủ thực thi các hạn chế.
Anthropic nhấn mạnh rằng, “nhãn hiệu nguy cơ chuỗi cung ứng” trước đây thường chỉ áp dụng cho các đối thủ nước ngoài, và việc áp dụng nó cho một công ty AI trong nước có thể gây ảnh hưởng sâu rộng đến toàn bộ ngành công nghệ và mô hình hợp tác giữa doanh nghiệp và chính phủ.
Các nhà phân tích nhận định, vụ kiện này phản ánh một thách thức mới mà ngành AI đang phải đối mặt: khi các mô hình lớn bắt đầu tham gia vào lĩnh vực quân sự và an ninh quốc gia, các doanh nghiệp có thể giới hạn cách chính phủ sử dụng công nghệ của họ hay không?
Một số chuyên gia chính sách cho rằng, nếu chính phủ có thể áp dụng các biện pháp trừng phạt kinh tế dựa trên các giới hạn an toàn do doanh nghiệp tự đặt ra, điều này có thể làm giảm quyền tự quyết của các công ty công nghệ trong việc đảm bảo an toàn và đạo đức của AI. Trong khi đó, phía quân đội cho rằng công nghệ AI mang tính chiến lược đối với an ninh quốc gia và không nên bị hạn chế quá mức.
Kết quả của vụ kiện này không chỉ quyết định liệu Anthropic có thể khôi phục hợp tác với chính phủ Mỹ hay không, mà còn có thể đặt ra tiền lệ quan trọng cho các mô hình hợp tác trong tương lai giữa các công ty AI và chính phủ.