NVIDIA и Массачусетский технологический институт (MIT) выпускают фреймворк Lightning OPD, повышая эффективность дистилляции моделей в 4 раза при устранении проблем с памятью GPU

Согласно сообщениям, исследователи NVIDIA и MIT выпустили Lightning OPD (Offline On-Policy Distillation) — новую посттренировочную методику для больших языковых моделей, которая устраняет необходимость держать учительскую модель в работе во время обучения. Путём предварительного вычисления лог-вероятностей учительской модели офлайн эта схема повышает эффективность обучения в 4 раза, одновременно освобождая все ресурсы GPU для обучения студентской модели.

При тестировании на 8 GPU NVIDIA H100 Lightning OPD успешно дистиллировала Qwen3-30B-A3B-Base (MoE-модель с 30 миллиардами параметров) и получила 71,0 на бенчмарке AIME 2024, тогда как стандартная OPD на том же оборудовании упиралась в нехватку памяти. Для более компактной модели Qwen3-8B методике потребовалось всего 30 GPU-часов, чтобы достичь 69,9 балла.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев