Giám đốc điều hành của Anthropic, Dario Amodei, đã trả lời phỏng vấn của Zanny Minton Beddoes, Tổng biên tập của The Economist, giải thích lý do tại sao Anthropic phản đối một số điều khoản trong hợp đồng của Bộ Quốc phòng Mỹ. Ông cho rằng lập trường của Anthropic không chỉ dựa trên các giá trị dân chủ mà còn vì lo ngại về độ tin cậy của các mô hình AI hiện tại để ứng dụng trong phòng thủ quân sự, cũng như ai sẽ kiểm soát chúng cuối cùng. Đồng thời, ông bày tỏ mong muốn có không gian đối thoại với chính phủ để thảo luận về việc ký kết các điều khoản rõ ràng hơn liên quan đến AI.
Amodei: Claude vẫn chưa thể trở thành mô hình tự động hoàn toàn trong quân sự
Sau khi Giám đốc điều hành của Anthropic, Amodei, kiên quyết rằng Claude không được sử dụng cho giám sát quy mô lớn hoặc vũ khí tự hành, chính quyền Trump đã ra lệnh cấm các cơ quan liên bang sử dụng các công cụ mô hình do công ty cung cấp. Hiện tại, Claude bị Mỹ gắn nhãn là nhà cung cấp rủi ro AI. Amodei cho biết mô hình chính của Anthropic, Claude, vẫn chưa sẵn sàng để sử dụng trong các ứng dụng quân sự tự động hoàn toàn. Ông nhận định rằng, với tư cách là một nhà cung cấp AI tư nhân, việc giải thích cho khách hàng chính phủ về cách sử dụng mô hình một cách phù hợp không phải là điều dễ dàng, nhưng ông cho rằng đó là một biện pháp an toàn cần thiết.
Amodei làm rõ rằng, Anthropic đã ký một hợp đồng có phạm vi hạn chế với Bộ Quốc phòng, hiện tại hợp đồng này không gặp vấn đề gì, nhưng họ lo ngại về phạm vi sử dụng trong tương lai. Tự động hóa quân sự sẽ tạo ra một kịch bản AI có thể kiểm soát hàng triệu drone mà không cần tuân thủ các quy chuẩn quân sự truyền thống, và nếu không giới hạn phạm vi ứng dụng này, sẽ rất khó kiểm soát.
Làm thế nào để chứng minh rằng việc giới hạn phạm vi sử dụng vũ khí là hợp lý?
Trong cuộc trò chuyện với The Economist, Amodei giải thích hai lý do chính khiến Claude không được phép điều khiển drone trong các vũ khí tự động: độ tin cậy của Claude còn thấp và thiếu khung giám sát quản lý bởi con người (video 0:00-0:18, 5:48-5:58).
Không đủ độ tin cậy của Claude: Amodei cho rằng mô hình Claude chưa đủ để hỗ trợ các ứng dụng quân sự tự động hoàn toàn, so sánh nó như một hãng hàng không cần công bố rằng một số phương pháp bay sẽ không an toàn (video 0:05-0:49).
Thiếu khung giám sát quản lý bởi con người: Ông lo ngại rằng thiếu các quy chuẩn để quản lý một đội quân drone có thể dẫn đến một người có thể kiểm soát hàng triệu vũ khí mà không phải chịu trách nhiệm quân sự truyền thống (video 5:48-6:55).
Làm thế nào để xử lý các bất đồng về trí tuệ nhân tạo trong lĩnh vực quân sự?
Thông qua cuộc phỏng vấn với The Economist, Amodei bày tỏ hy vọng chính phủ Mỹ và Anthropic có thể cùng nhau xử lý các bất đồng về ứng dụng AI một cách chi tiết hơn. Ông nhấn mạnh rằng các nhà cung cấp AI và chính phủ cần thảo luận kỹ về độ tin cậy của các mô hình hiện có và các quy chuẩn quản lý để đối phó với các rủi ro mà AI có thể mang lại. Amodei cho rằng các nhà cung cấp AI có trách nhiệm rõ ràng trong việc xác định độ trưởng thành của mô hình trong các ứng dụng có rủi ro cao.
Amodei đề xuất ký một hợp đồng hạn chế, bao gồm các trường hợp đã đạt được thỏa thuận, để hai bên có thể thiết lập các quy chuẩn vận hành mô hình trước khi mở rộng sang các nhiệm vụ gây tranh cãi hơn. Hiện tại, cần phải thảo luận để tìm ra một điểm đồng thuận và cân bằng, không để quyền lực của các công ty tư nhân quá lớn, cũng không để quyền lực của chính phủ trở nên tuyệt đối không thể thách thức.
Tên gọi của Anthropic bắt nguồn từ “nhân loại học”, thể hiện ý định ban đầu của người sáng lập Amodei: xây dựng một công ty AI lấy con người làm trung tâm. Sự kiên trì này khiến ông trở thành một trong số ít CEO dám công khai thách thức chính phủ Mỹ, đồng thời chỉ trích Trung Quốc ăn cắp công nghệ Claude. Cách Anthropic cân bằng giữa việc giữ vững nguyên tắc và hợp tác với an ninh quốc gia sẽ trở thành bước ngoặt quan trọng trong quá trình phát triển quân sự hóa AI. Làm thế nào để giải quyết bế tắc về chủ quyền công nghệ và giới hạn đạo đức này? Toàn cầu đang theo dõi.
Bài báo này “Giám đốc điều hành Anthropic: Claude chưa đủ để ứng dụng trong quân sự, mong muốn ký kết các điều khoản rõ ràng hơn” lần đầu xuất hiện trên ABMedia của Chain News.