NVIDIA phát hành TensorRT-LLM, có thể cải thiện hiệu suất suy luận H100 lên tới 8 lần

巴比特_

Theo báo cáo của IT House vào ngày 9/9, NVIDIA mới đây đã công bố ra mắt TensorRT-LLM, thư viện mã nguồn mở được tối ưu hóa sâu, có thể tăng tốc hiệu suất suy luận của tất cả các mô hình ngôn ngữ lớn trên GPU AI như Hopper. NVIDIA hiện đang làm việc với cộng đồng nguồn mở để sử dụng các công nghệ tiên tiến như SmoothQuant, FlashAttention và fMHA để triển khai nhân AI nhằm tối ưu hóa GPU của mình, có thể tăng tốc các mô hình GPT-3 (175B), Llama Falcom (180B) và Bloom.

Điểm nổi bật của TensorRT-LLM là việc giới thiệu sơ đồ lập lịch có tên là In-Flight batching, cho phép công việc vào và thoát GPU độc lập với các tác vụ khác. Giải pháp này cho phép cùng một GPU xử lý động nhiều truy vấn nhỏ hơn khi xử lý các yêu cầu đòi hỏi tính toán lớn, cải thiện hiệu suất xử lý của GPU và tăng tốc thông lượng của H100 lên 2 lần.

Trong bài test hiệu năng, NVIDIA sử dụng A100 làm cơ sở và so sánh H100, H100 khi kích hoạt TensorRT-LLM, trong GPT-J 6B thì hiệu năng suy luận của H100 cao gấp 4 lần so với A100, trong khi hiệu năng của H100 với TensorRT -LLM kích hoạt tốt hơn A100, 8 lần.

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận