Согласно OpenAI, компания выявила коренную причину «гоблинской» проблемы, которая преследовала модели GPT начиная с GPT-5.1. Сигнал вознаграждения, использовавшийся для усиления черты характера «Nerdy», поощрял выводы с упоминаниями фантастических существ: 76,2% обучающего набора данных демонстрировали эту предвзятость. При этом личность «Nerdy» составляла лишь 2,5% ответов ChatGPT, но при этом обеспечивала 66,7% упоминаний гоблинов, причем число таких упоминаний выросло на 3 881% с GPT-5.2 до GPT-5.4.
OpenAI убрала личность «Nerdy» в марте, исключила предвзятый сигнал вознаграждения и отфильтровала данные обучения. Компания также добавила инструкции по подавлению в разработческие подсказки GPT-5.5 в Codex. В ходе расследования были разработаны новые инструменты аудита поведения моделей.
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к
Отказу от ответственности.
Связанные статьи
OpenAI запускает GPT-5.5-Cyber: дуэль с Anthropic Mythos
OpenAI объявила о запуске GPT-5.5-Cyber, созданной специально для кибербезопасности; она будет в «ближайшие несколько дней» развернута для ключевых оборонных подразделений через доверенный механизм доступа при сотрудничестве с государственными органами, без открытой продажи. Это контрастирует с открытым маршрутом Anthropic Mythos: Белый дом выступает против расширения до 70 компаний. Preparedness Framework оценил её как High (не до critical), параллельно усиливая меры защиты в сфере кибербезопасности. Дальше будут наблюдать за списком подразделений для развертывания, возможным включением CISA и различиями в стандартах кибербезопасности у обеих сторон.
ChainNewsAbmedia17м назад
Выручка Schneider Electric за 1-й квартал достигла 9,8 млрд евро, подскочив на 11,2% на фоне спроса на ЦОД по данным ИИ
Как сообщает Reuters, Schneider Electric сообщила о выручке в первом квартале в размере 9,8 миллиарда евро (11,4 миллиарда долларов США) 30 апреля; при этом органический рост был повышен до 11,2% на фоне спроса со стороны AI- датацентров. Французский поставщик оборудования для электропитания и охлаждения заявил, что результат немного превысил ожидания консенсуса и
GateNews24м назад
Protum привлекает $2 миллиона раунд seed для платформы AI-госуправления, нацеливаясь на закрытие в июне 2026 года
Согласно TechCrunch Startup Spotlight, Protum — стартап по AI-управлению — привлекает раунд seed на $2 миллиона, цель — закрыть сделку к июню 2026 года. Основанный Sandeep J., который привносит 25 лет опыта в трансформации крупных предприятий, Protum предоставляет платформу, предназначенную для того, чтобы дать компаниям непрерывный
GateNews54м назад
Волна сокращений в компаниях может привести к ситуации «трудящиеся и работодатели в проигрыше», — исследование рекомендует: ввести налог на автоматизацию с помощью ИИ
Исследование указывает на внешние эффекты увольнений из-за ИИ: издержки увольнений несёт компания, но потери покупательной способности — всё рыночное сообщество, чем больше увольнений, тем сильнее сворачивается спрос, и в итоге проигрывают обе стороны. Предлагается ввести сбор «автоматизационного налога» на ИИ, чтобы интернализировать внешние издержки и направлять поступления на переквалификацию, восстановив спрос и стабилизировав экономику.
ChainNewsAbmedia58м назад
Claude будет взимать языковой налог? Исследование: перевод контента на китайском, японском и корейском языках потребляет больше всего токенов — почти в три раза
Исследователь Комацузаки в X указал, что у токенизаторов основных LLM есть языковой «налог» для неанглоязычных языков. В тесте на перевод по книге «The Bitter Lesson» Claude в хинди, арабском, русском и китайском показал прирост числа токенов примерно 3,24×, 2,86×, 2,04× и 1,71× соответственно — заметно выше, чем у OpenAI. Отечественные китайские модели более дружелюбны к китайскому языку, что указывает на перекос в сторону англоязычных обучающих данных, создающий неравенство по издержкам и выступающий барьером для распространения.
ChainNewsAbmedia1ч назад
Microsoft AI бизнес удваивается до $370B ARR; планирует $190B Capex на 2026 год
29 апреля Microsoft сообщила о результатах за третий квартал финансового 2026 года за период, завершившийся 31 марта, превзойдя ожидания рынка. Выручка за Q3 достигла 82,886 млрд долларов, что на 18% больше год к году и выше ожидаемых 81,4 млрд долларов; GAAP чистая прибыль выросла на 23% до 31,778 млрд долларов; не-GAAP разводненная прибыль на
GateNews1ч назад