Investing.com - Anthropic ngày thứ Hai cáo buộc ba phòng thí nghiệm trí tuệ nhân tạo Trung Quốc thực hiện hoạt động trích xuất dữ liệu quy mô lớn đối với mô hình Claude AI của họ, tuyên bố các công ty này sử dụng tài khoản giả mạo để cải thiện mô hình của mình một cách bất hợp pháp.
Công ty AI này cho biết, DeepSeek, Moonshot và MiniMax đã thực hiện hơn 16 triệu lượt tương tác với Claude thông qua khoảng 24.000 tài khoản giả mạo, vi phạm điều khoản dịch vụ và hạn chế truy cập khu vực. Những cáo buộc này diễn ra sau khi OpenAI đưa ra các tuyên bố tương tự, trong đó OpenAI từng nói với các nghị sĩ Hạ viện rằng DeepSeek sử dụng kỹ thuật chưng cất để tăng cường mô hình của họ.
Các phòng thí nghiệm Trung Quốc này sử dụng phương pháp gọi là chưng cất, tức là sử dụng đầu ra của hệ thống tiên tiến hơn để huấn luyện các mô hình có khả năng yếu hơn. Mặc dù chưng cất là kỹ thuật huấn luyện hợp pháp để tạo ra các phiên bản nhỏ hơn của mô hình AI, nhưng Anthropic cho biết, khi các đối thủ cạnh tranh sử dụng nó để lấy khả năng từ các phòng thí nghiệm khác, thì hành động đó trở thành bất hợp pháp.
Theo Anthropic, các hoạt động này nhắm vào các chức năng tiên tiến nhất của Claude, bao gồm khả năng suy luận, sử dụng công cụ và mã hóa. Công ty cho biết, họ đã xác định các hoạt động này thông qua liên kết địa chỉ IP, siêu dữ liệu yêu cầu và các chỉ số hạ tầng.
Theo báo cáo, DeepSeek đã tạo ra hơn 150.000 lượt tương tác tập trung vào khả năng suy luận và các nhiệm vụ dựa trên tiêu chuẩn điểm số. Hoạt động này sử dụng luồng lưu lượng đồng bộ giữa nhiều tài khoản, có cùng mô hình và phương thức thanh toán chia sẻ. Anthropic cho biết, các yêu cầu của DeepSeek yêu cầu Claude giải thích từng bước quá trình suy nghĩ nội bộ để hoàn thành phản hồi, tạo dữ liệu huấn luyện chuỗi suy nghĩ. Công ty cũng đã quan sát thấy một số nhiệm vụ, trong đó Claude được sử dụng để tạo ra các phương án thay thế liên quan đến các câu hỏi chính trị nhạy cảm về những người phản đối, lãnh đạo đảng và chủ nghĩa độc đoán.
Moonshot AI đã thực hiện hơn 3,4 triệu lượt tương tác liên quan đến khả năng suy luận, sử dụng công cụ, mã hóa và thị giác máy tính. Hoạt động này sử dụng hàng trăm tài khoản giả mạo qua nhiều đường truy cập khác nhau. Anthropic đã xác định hoạt động này dựa trên dữ liệu siêu yêu cầu phù hợp với hồ sơ công khai của các nhân viên cao cấp của Moonshot, và quy trách nhiệm cho công ty này.
MiniMax đã tạo ra hơn 13 triệu lượt tương tác tập trung vào mã hóa và sử dụng công cụ. Anthropic đã phát hiện hoạt động này khi MiniMax chưa phát hành mô hình huấn luyện của mình, nhưng hoạt động vẫn đang diễn ra tích cực. Khi MiniMax phát hành mô hình mới trong thời gian hoạt động này, phòng thí nghiệm Trung Quốc này đã chuyển hướng gần một nửa lưu lượng trong vòng 24 giờ để nắm bắt khả năng của hệ thống mới nhất.
Anthropic cho biết, các phòng thí nghiệm này truy cập Claude thông qua dịch vụ đại lý thương mại bán lại quyền truy cập mô hình AI. Các dịch vụ này vận hành mạng lưới tài khoản giả mạo, phân phối lưu lượng trên API của Anthropic và các nền tảng đám mây của bên thứ ba. Trong một trường hợp, một mạng lưới đại lý duy trì hơn 20.000 tài khoản giả mạo cùng lúc.
Vì lý do an ninh quốc gia, Anthropic không cung cấp quyền truy cập thương mại vào Claude tại Trung Quốc. Công ty cho biết, các mô hình chưng cất bất hợp pháp thiếu các biện pháp bảo vệ an toàn cần thiết, gây ra rủi ro về an ninh. Các hệ thống do Anthropic và các công ty Mỹ khác xây dựng có thể ngăn chặn các hành vi sử dụng AI để phát triển vũ khí sinh học hoặc tiến hành hoạt động mạng độc hại.
Anthropic cho biết, họ đã xây dựng hệ thống phát hiện và công cụ nhận dạng dấu vết hành vi để nhận diện các mô hình tấn công chưng cất trong lưu lượng API. Công ty đang chia sẻ các chỉ số kỹ thuật này với các phòng thí nghiệm AI khác, nhà cung cấp dịch vụ đám mây và các cơ quan chức năng. Đồng thời, họ cũng tăng cường xác minh các tài khoản giáo dục và các dự án nghiên cứu an toàn.
本文由人工智能协助翻译。更多信息,请参见我们的使用条款。
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Anthropic cáo buộc phòng thí nghiệm AI Trung Quốc đánh cắp dữ liệu của Claude
Investing.com - Anthropic ngày thứ Hai cáo buộc ba phòng thí nghiệm trí tuệ nhân tạo Trung Quốc thực hiện hoạt động trích xuất dữ liệu quy mô lớn đối với mô hình Claude AI của họ, tuyên bố các công ty này sử dụng tài khoản giả mạo để cải thiện mô hình của mình một cách bất hợp pháp.
Công ty AI này cho biết, DeepSeek, Moonshot và MiniMax đã thực hiện hơn 16 triệu lượt tương tác với Claude thông qua khoảng 24.000 tài khoản giả mạo, vi phạm điều khoản dịch vụ và hạn chế truy cập khu vực. Những cáo buộc này diễn ra sau khi OpenAI đưa ra các tuyên bố tương tự, trong đó OpenAI từng nói với các nghị sĩ Hạ viện rằng DeepSeek sử dụng kỹ thuật chưng cất để tăng cường mô hình của họ.
Các phòng thí nghiệm Trung Quốc này sử dụng phương pháp gọi là chưng cất, tức là sử dụng đầu ra của hệ thống tiên tiến hơn để huấn luyện các mô hình có khả năng yếu hơn. Mặc dù chưng cất là kỹ thuật huấn luyện hợp pháp để tạo ra các phiên bản nhỏ hơn của mô hình AI, nhưng Anthropic cho biết, khi các đối thủ cạnh tranh sử dụng nó để lấy khả năng từ các phòng thí nghiệm khác, thì hành động đó trở thành bất hợp pháp.
Theo Anthropic, các hoạt động này nhắm vào các chức năng tiên tiến nhất của Claude, bao gồm khả năng suy luận, sử dụng công cụ và mã hóa. Công ty cho biết, họ đã xác định các hoạt động này thông qua liên kết địa chỉ IP, siêu dữ liệu yêu cầu và các chỉ số hạ tầng.
Theo báo cáo, DeepSeek đã tạo ra hơn 150.000 lượt tương tác tập trung vào khả năng suy luận và các nhiệm vụ dựa trên tiêu chuẩn điểm số. Hoạt động này sử dụng luồng lưu lượng đồng bộ giữa nhiều tài khoản, có cùng mô hình và phương thức thanh toán chia sẻ. Anthropic cho biết, các yêu cầu của DeepSeek yêu cầu Claude giải thích từng bước quá trình suy nghĩ nội bộ để hoàn thành phản hồi, tạo dữ liệu huấn luyện chuỗi suy nghĩ. Công ty cũng đã quan sát thấy một số nhiệm vụ, trong đó Claude được sử dụng để tạo ra các phương án thay thế liên quan đến các câu hỏi chính trị nhạy cảm về những người phản đối, lãnh đạo đảng và chủ nghĩa độc đoán.
Moonshot AI đã thực hiện hơn 3,4 triệu lượt tương tác liên quan đến khả năng suy luận, sử dụng công cụ, mã hóa và thị giác máy tính. Hoạt động này sử dụng hàng trăm tài khoản giả mạo qua nhiều đường truy cập khác nhau. Anthropic đã xác định hoạt động này dựa trên dữ liệu siêu yêu cầu phù hợp với hồ sơ công khai của các nhân viên cao cấp của Moonshot, và quy trách nhiệm cho công ty này.
MiniMax đã tạo ra hơn 13 triệu lượt tương tác tập trung vào mã hóa và sử dụng công cụ. Anthropic đã phát hiện hoạt động này khi MiniMax chưa phát hành mô hình huấn luyện của mình, nhưng hoạt động vẫn đang diễn ra tích cực. Khi MiniMax phát hành mô hình mới trong thời gian hoạt động này, phòng thí nghiệm Trung Quốc này đã chuyển hướng gần một nửa lưu lượng trong vòng 24 giờ để nắm bắt khả năng của hệ thống mới nhất.
Anthropic cho biết, các phòng thí nghiệm này truy cập Claude thông qua dịch vụ đại lý thương mại bán lại quyền truy cập mô hình AI. Các dịch vụ này vận hành mạng lưới tài khoản giả mạo, phân phối lưu lượng trên API của Anthropic và các nền tảng đám mây của bên thứ ba. Trong một trường hợp, một mạng lưới đại lý duy trì hơn 20.000 tài khoản giả mạo cùng lúc.
Vì lý do an ninh quốc gia, Anthropic không cung cấp quyền truy cập thương mại vào Claude tại Trung Quốc. Công ty cho biết, các mô hình chưng cất bất hợp pháp thiếu các biện pháp bảo vệ an toàn cần thiết, gây ra rủi ro về an ninh. Các hệ thống do Anthropic và các công ty Mỹ khác xây dựng có thể ngăn chặn các hành vi sử dụng AI để phát triển vũ khí sinh học hoặc tiến hành hoạt động mạng độc hại.
Anthropic cho biết, họ đã xây dựng hệ thống phát hiện và công cụ nhận dạng dấu vết hành vi để nhận diện các mô hình tấn công chưng cất trong lưu lượng API. Công ty đang chia sẻ các chỉ số kỹ thuật này với các phòng thí nghiệm AI khác, nhà cung cấp dịch vụ đám mây và các cơ quan chức năng. Đồng thời, họ cũng tăng cường xác minh các tài khoản giáo dục và các dự án nghiên cứu an toàn.
本文由人工智能协助翻译。更多信息,请参见我们的使用条款。