Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
Совместное исследование пяти университетов показало, что цифровые люди могут самостоятельно ориентироваться в 3D-сцене по визуальным данным, уровень успеха превышает оптимальную базовую линию примерно на 30 процентных пунктов
МЕ Новости, 14 апреля (UTC+8), по данным мониторинга 1M AI News, совместная команда Пекинского университета, Карнеги-Меллон, Тонгджи университет, Университета Калифорнии в Лос-Анджелесе и Мичиганского университета опубликовала на arXiv VGHuman — рамочную структуру для телесных ИИ, которая позволяет цифровому человеку самостоятельно действовать в незнакомых 3D-сценах, полагаясь только на визуальное восприятие. Ранее системы цифровых людей в основном зависели от предустановленных сценариев или привилегированных статусов, а стартовая идея VGHuman — дать цифровому человеку настоящие глаза, чтобы он сам видел дорогу, планировал и действовал. Рамочная структура состоит из двух уровней. Уровень мира (World Layer) восстанавливает из однокамерного видео 3D-камеру с семантическими метками и сетками столкновений, а дизайн восприятия препятствий позволяет ему распознавать скрытые мелкие объекты даже в сложных уличных условиях. Уровень агента (Agent Layer) оснащает цифрового человека RGB-D (цвет + глубина) восприятием с первого лица, генерирует планы через визуальные подсказки пространственного восприятия и итеративное рассуждение, а в конечном итоге диффузионная модель преобразует их в последовательность движений всего тела, управляя движением персонажа. В навигационном бенчмарке из 200 тестовых сцен, по трем уровням сложности — простая маршрутизация, обход препятствий и динамичные пешеходы, уровень успеха VGHuman превзошел самые сильные базовые модели NaVILA, NaVid, Uni-NaVid примерно на 30 процентных пунктов, а уровень столкновений был равен или ниже. Рамочная структура также поддерживает бег, прыжки и другие стили движений, а также долгосрочное планирование для последовательного достижения нескольких целей. Планируется открытие кода и моделей, репозиторий на GitHub уже создан. (Источник: BlockBeats)