Результати пошуку для "GPT"
Сьогодні
02:29

Обіржено 29 токенів у торгових біржах Gate, здійснено викуп для користувачів, які відповідають умовам

Оновлення Gate News, згідно з офіційним оголошенням Gate Gate припинив торгівлю на ринках таких 29 токенів, як POWERLOOM, ZAP, NVIR, PBX, MNRY, HAT, EARNM, VICE, FST, LBLOCK, ELIX, ELIZA, GET, VIA, SGC, SKAI, 1, GPT, DPET, EQ, EMPIRE, ELDE, CNNS, MYTH, HARD, TROY, MICHI, OVPP, ROOST. Після повторної оцінки з боку платформи ці токени більше не відповідають стандартам для відкриття торгівлі. Для користувачів, які подали форму та відповідають вимогам, Gate зарахував суму викупу на їхні рахунки. Після зняття з торгів користувачі й надалі можуть використовувати гаманець Gate для зберігання активів; конкретний час припинення відповідних функцій гаманця та детальні інструкції щодо операцій буде повідомлено додатково.
Більше
10:00

Gate зняв із біржі торгів 29 токенів, зокрема POWERLOOM, ZAP тощо; здійснено викуп для користувачів, які відповідають умовам

Gate News повідомлення, згідно з офіційним оголошенням Gate, Gate припинив торгівлю POWERLOOM, ZAP, NVIR, PBX, MNRY, HAT, EARNM, VICE, FST, LBLOCK, ELIX, ELIZA, GET, VIA, SGC, SKAI, 1, GPT, DPET, EQ, EMPIRE, ELDE, CNNS, MYTH, HARD, TROY, MICHI, OVPP, ROOST та іншими 29 токенами. Після оцінювання зазначені токени не відповідають стандартам для відкриття торгівлі. Gate здійснив викуп для користувачів, які тримають ці токени; кошти викупу, що відповідають вимогам, були зараховані на їхній акаунт у Gate. Після припинення торгівлі користувачі й надалі можуть використовувати Gate як гаманець для зберігання активів зазначених вище монет. Конкретний час і деталі операцій щодо вимкнення функції гаманця буде повідомлено додатково через офіційне оголошення.
Більше
01:39

Microsoft випустила функції Critique та Council для Copilot Researcher; тест DRACO показав 57.4 бали, що випереджає галузевий рівень

Microsoft оголосила про запуск нових функцій Critique та Council для Copilot Researcher, поєднуючи GPT від OpenAI та Claude від Anthropic, щоб підвищити якість дослідницьких завдань. У 100 складних завданнях режим Critique набрав 57.4 бали, суттєво випередивши інші моделі.
Більше
05:07

20B малий модельний пошук досягає рівня GPT-5 та Opus: векторна база даних Chroma відкриває модель пошуку Agent Context-1

Відкритий векторний бази даних Chroma випустила Context-1, модель пошуку агента з 200 мільярдами параметрів для багатократного пошуку. Ця модель використовує технологію саморедагування контексту, тренуючи на багатьох завданнях за допомогою підкріплювального навчання та механізму курсів, демонструючи відмінні результати, особливо в галузях веб, фінансів та права, а також показуючи міжгалузеві можливості пошуку в сфері електронної пошти.
Більше
04:22

Чи вже настав «момент GPT» для втілесного інтелекту? Axis Robotics оголошує про завершення тестування та незабаром запуститься на блокчейні Base

> Джерело статті: Axis Axis Robotics переформатує різноманітність даних та масштабованість виробництва втіленого інтелекту за допомогою стратегії, орієнтованої на імітацію (Simulation-First). У 2025 році декілька технологічних напрямків робототехніки швидко конвергуються: комерціалізація ланцюга поставок втіленого обладнання дає минулим дорогим прототипам реальну можливість масштабованого запуску; моделі Vision-Language-Action (VLA) надають роботам «мозок» для розуміння семантики, міркування та планування; а багатошарова піраміда даних, що складається з відеопріоритету та імітаційного синтезу, постачає неперервне паливо для постійної еволюції втіленого інтелекту. Однак індустрія все ще стикається з найбільшим вузьким місцем: даними. На відміну від великих мовних моделей та автономного водіння, втілений інтелект все ще має величезний дефіцит даних на етапі попередньої підготовки
Більше
13:23

OpenClaw випустив версію 2026.3.22, запустив ринок плагінів ClawHub

OpenClaw 22 березня випустив нову версію, яка включає ринок плагінів ClawHub, підтримку моделей MiniMax M2.7, GPT-5.4-mini та GPT-5.4-nano, а також запроваджує функцію одноагентного висновку. Одночасно інтегровані OpenShell і SSH-пісочниця, а також підключені кілька пошукових інструментів.
Більше
01:39

AI інструмент програмування Cursor випустив модель Composer 2, продуктивність якої перевищує Opus 4.6, ціна знизилася до 14% від попередньої версії

Cursor на 20 березня випустив третє поління моделі кодування Composer 2 зі значним зниженням ціни до $0,50 за мільйон токенів введення та $2,50 за виведення, одночасно запустивши швидку версію. Composer 2 показує бращі результати за кількома тестами порівняно з попередньою версією, але нижче за GPT-5.4, поліпшення походить переважно від подальшого попередньої підготовки базової моделі та навчання з підкріпленням. Модель доступна тільки для внутрішнього використання в Cursor, а материнська компанія Anysphere має оцінку в $293 млрд.
Більше
00:02

OpenAI випустила GPT-5.4 mini та nano, ціни на які досягають 4-критної вартості попередніх версій

OpenAI 18 березня випустила нові моделі GPT-5.4 mini та GPT-5.4 nano, які спрямовані на мультимодальні та програмування сценарії з суттєво підвищеною ціною. GPT-5.4 mini демонструє відмінну продуктивність у тестах програмування, підтримує великомасштабний контекст та багатофункціональні операції. Крім того, користувачі безплатної версії chatGPT також зможуть спробувати нові функції міркування.
Більше
15:32

Rakuten Group випустив японську велику мовну модель Rakuten AI 3.0, що викликало суперечки через підозру на основі архітектури DeepSeek

Група Rakuten випустила японськомовну модель Rakuten AI 3.0 17 березня, стверджуючи, що вона перевершує GPT-4o у багатьох японськомовних тестах. Однак користувачі мережі виявили, що модель може базуватися на розробці DeepSeek і поставили під сумнів її упередженість на користь Китаю та автентичність самостійно розробленої технології, що спровокувало обговорення.
Більше
08:53

Rakuten випустив модель Rakuten AI 3.0, файли конфігурації показують, що базова архітектура — DeepSeek V3

Група Rakuten 17 березня випустила високопродуктивну AI-модель під назвою Rakuten AI 3.0 з параметрами 671B, оптимізовану для японської мови. Стверджується, що вона перевищує GPT-4o за кількома бенчмарками. Модель вільно поширюється з відкритим кодом за ліцензією Apache 2.0, побудована на основі доопрацювання моделі DeepSeek V3 і отримала підтримку обчислювальних ресурсів від японського уряду.
Більше