AWS mở rộng các quy trình AI nhiều tác nhân, hỗ trợ Claude Opus 4.7 trên Bedrock

Tin tức từ Gate, ngày 22 tháng 4 — Amazon Web Services đã công bố việc mở rộng các sáng kiến AI mang tính tác nhân thông qua các quy trình làm việc nhiều tác nhân, hỗ trợ Anthropic’s Claude Opus 4.7 trên Amazon Bedrock để giúp khách hàng đi xa hơn các thử nghiệm AI sinh thành. Công ty đang mở rộng quan hệ đối tác khi khách hàng chuyển từ các công cụ AI đơn lẻ sang các hệ thống kết nối nhiều tác nhân chuyên biệt.

Tại Hàn Quốc, AWS đang hợp tác với các công ty bao gồm LG CNS, Doosan Digital Innovation và CJ OliveNetworks trong các lĩnh vực sản xuất, bán lẻ và tài chính. Posco DX đã giảm 90% thời gian lên bản vẽ thiết kế nhờ các hệ thống AI dựa trên AWS, trong khi CJ OliveNetworks tăng doanh số tại cửa hàng thêm 5,7% thông qua các triển khai tương tự.

Các quy trình làm việc nhiều tác nhân giải quyết các hạn chế của hệ thống một tác nhân, có thể thất bại với các yêu cầu nằm ngoài phạm vi hoặc tạo ra các hành động công cụ không tồn tại. Các benchmark của AWS cho thấy các thiết lập nhiều tác nhân đạt tỉ lệ thành công 90% trong lập kế hoạch du lịch, tài trợ thế chấp và phát triển phần mềm, so với lần lượt 60%, 80% và 53% đối với các phương pháp một tác nhân trên cùng các bộ dữ liệu.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

Microsoft Ra Mắt Hạ Tầng Thương Mại Cho Tác Nhân AI: Thị Trường Dành Cho Nhà Xuất Bản, Giao Thức Cho Thương Nhân và Công Cụ Quảng Cáo

Tin tức từ Gate, ngày 22 tháng 4 — Phó chủ tịch phụ trách thương mại hóa AI của Microsoft Tim Frank đã công bố một loạt cập nhật hạ tầng thương mại nhằm phục vụ kỷ nguyên “web tác nhân”, giúp các nhà xuất bản, thương nhân và nhà quảng cáo vẫn có thể được phát hiện và giao dịch khi các tác nhân AI đưa ra quyết định mua sắm thay mặt người dùng trên

GateNews27phút trước

NeoCognition Huy động $40M vốn hạt giống cho các tác nhân AI học ngay khi làm việc

Tin tức từ Gate, ngày 22 tháng 4 — Phòng thí nghiệm nghiên cứu AI NeoCognition thông báo hoàn tất một vòng gọi vốn hạt giống $40 triệu, xuất phát chế độ ẩn. Được thành lập bởi Phó giáo sư Đại học Bang Ohio Yu Su, cùng với Xiang Deng và Yu Gu, công ty có trụ sở tại Palo Alto, California. Vòng gọi vốn này

GateNews43phút trước

PicWe Ra Mắt Ví Tác Nhân AI với Quản Lý Khóa Trên Thiết Bị

PicWe thông báo ra mắt bản beta công khai của PicWe Wallet, một ví khóa cục bộ trên thiết bị được hỗ trợ bởi tác nhân AI, không có cụm khôi phục. Ví hỗ trợ tài sản đa chuỗi, giao dịch hoán đổi (swap), tự động hóa có thể truy cập bằng AI và nhằm thống nhất hạ tầng RWA. PicWe đã ra mắt bản beta công khai của PicWe Wallet, một ví được bật tác nhân AI (AI Agent) lưu trữ khóa ngay trên thiết bị, loại bỏ cụm khôi phục và giữ các thao tác quan trọng ở cục bộ. Bản beta hỗ trợ quản lý tài sản đa chuỗi, giao dịch hoán đổi và phí dựa trên stablecoin, đồng thời cho phép các tương tác AI có thể lập trình. Các sáng kiến PicWe rộng hơn định vị nền tảng như một hạ tầng thống nhất cho tài sản thế giới thực, cho phép phát hành, lưu thông, thanh toán, thanh toán xuyên biên giới, token hóa và phối hợp chuỗi cung ứng cho các trường hợp sử dụng ở doanh nghiệp.

GateNews1giờ trước

Hugging Face phát hành mã nguồn mở ml-intern, một tác nhân AI cho nghiên cứu ML tự chủ

Phát hành mã nguồn mở cho ml-intern, tác nhân nghiên cứu ML tự chủ của Hugging Face có khả năng đọc bài báo, tuyển chọn dữ liệu, huấn luyện, đánh giá và lặp lại qua các lĩnh vực khoa học, y học và toán học. Tóm tắt: ml-intern của Hugging Face là một tác nhân nghiên cứu ML tự chủ mã nguồn mở có thể đọc các bài báo, tuyển chọn tập dữ liệu, huấn luyện trên GPU tại chỗ hoặc trên đám mây, đánh giá kết quả và lặp lại để cải tiến. Được xây dựng dựa trên smolagents với giao diện dòng lệnh (CLI) và web, nó điều hướng qua arXiv/HF Papers, HF Hub và HF Jobs. Các bản demo bao quát khoa học, y học và toán học, cho thấy khả năng tự động hóa đầu-cuối và mức tăng hiệu năng.

GateNews1giờ trước

Google Research Phát hành ReasoningBank: Các tác nhân AI Học các chiến lược suy luận từ Thành công và Thất bại

Tin cổng Gate News, ngày 22 tháng 4 — Google Research đã phát hành ReasoningBank, một khung bộ nhớ tác nhân cho phép các tác nhân điều khiển bởi mô hình ngôn ngữ lớn liên tục học hỏi sau khi triển khai. Khung này trích xuất các chiến lược suy luận phổ quát từ cả kinh nghiệm nhiệm vụ thành công và thất bại, lưu

GateNews2giờ trước

Giáo sư Dai Jifeng của Đại học Thanh Hoa ra mắt Naive.ai, huy động ~$300M với định giá $800M

Tin tức Gate, ngày 22 tháng 4 — Dai Jifeng, giảng viên liên kết tại Khoa Kỹ thuật Điện của Đại học Thanh Hoa, đã sáng lập Naive.ai, một công ty tập trung vào huấn luyện sau mô hình mã nguồn mở và các tác nhân AI. Startup này đã huy động khoảng $300 triệu USD với định giá ước tính là $80

GateNews2giờ trước
Bình luận
0/400
Không có bình luận