Сейчас качество информации на многих платформах действительно вызывает опасения. Масса низкокачественного и провокационного контента заполняет их, что серьезно влияет на качество обучающих данных для моделей ИИ. Инструменты ИИ вроде Grok, обученные на таком мусоре, показывают соответствующие результаты, что и говорить. Если не верите, просто сделайте скриншоты этих новостей и отправьте их ChatGPT, Gemini, Claude или другим ИИ — они укажут, насколько эти эмоциональные новости являются абсурдными. Качество данных определяет предел модели — это фундаментальная проблема.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
14 Лайков
Награда
14
10
Репост
Поделиться
комментарий
0/400
TeaTimeTrader
· 7ч назад
Искусственный интеллект, обученный на мусорных данных, тоже будет мусорным, друзья. Это и есть принцип "garbage in, garbage out".
Посмотреть ОригиналОтветить0
GreenCandleCollector
· 11ч назад
Вот почему сейчас AI начинает проваливаться, не обвиняйте модель в плохих данных
---
Действительно, плохое качество данных чуть что — и модель сразу падает, спасу нет
---
Типы Grok обучают на этой куче сенсационных новостей в Твиттере, и неудивительно, что она не сбоит
---
Я пробовал дать Claude эти новости, он сразу назвал их чепухой, даже самый умный AI не выдержит мусорный ввод
---
Основная проблема — это именно она, хорошие данные очень трудно найти, все это маркетинговые мошенники
---
Если вы еще верите в AI, сначала посмотрите, на каких данных он обучался
---
Кажется, вся экосистема Web3-медиа испорчена, полно всяких сенсаций и FUD
Посмотреть ОригиналОтветить0
OldLeekConfession
· 01-06 01:47
Данные — это мусор, и результат тоже мусор... В этом нет ничего неправильного... Но если честно, сейчас те фейковые тренды, создаваемые аккаунтами в интернете, тоже зашквар, ведь AI-модели съели столько говна, что не могут не поносить
Посмотреть ОригиналОтветить0
mev_me_maybe
· 01-04 01:53
Мусор за мусором — вот судьба современного ИИ...
Вода, которую пьет ИИ, становится все более мутной, неудивительно, что он все чаще сдает.
Если источник данных рушится, даже самый мощный модельный алгоритм бесполезен — это действительно непреодолимый барьер.
Проще говоря, корм некачественный, как можно ожидать хорошую сталь?
Эти платформы действительно должны иметь механизм проверки, не ради свободы слова, а чтобы ИИ мог пить чистую воду.
Посмотреть ОригиналОтветить0
gas_fee_therapist
· 01-04 01:52
Мусор за мусором, ИИ тоже не спасет
Посмотреть ОригиналОтветить0
Deconstructionist
· 01-04 01:51
Мусор за мусором — вот нынешнее состояние ИИ...
---
Подождите, а большие модели сами по себе не так уж хороши, да?
---
Говорили о загрязнении данных так долго, а никто так и не взялся за их решение, честно говоря, поражает
---
Значит, вся эта история с Grok — просто шутка
---
Проблема не в ИИ, а в том, что источники информации ужасны
---
Этот парень прав, я действительно испытывал провалы
---
На мой взгляд, вместо того чтобы винить данные, лучше винить платформы и их управление — это одна и та же проблема
Посмотреть ОригиналОтветить0
YieldFarmRefugee
· 01-04 01:45
Мусор за мусором, нечего и говорить...
Посмотреть ОригиналОтветить0
CoconutWaterBoy
· 01-04 01:42
Мусор заходит — мусор выходит, данные для обучения ИИ — это все эти мелочи, и надеяться на лучшее — только зря.
Посмотреть ОригиналОтветить0
CompoundPersonality
· 01-04 01:30
Мусор за мусором, даже самая продвинутая ИИ не спасет этот поток информационного загрязнения
Сейчас качество информации на многих платформах действительно вызывает опасения. Масса низкокачественного и провокационного контента заполняет их, что серьезно влияет на качество обучающих данных для моделей ИИ. Инструменты ИИ вроде Grok, обученные на таком мусоре, показывают соответствующие результаты, что и говорить. Если не верите, просто сделайте скриншоты этих новостей и отправьте их ChatGPT, Gemini, Claude или другим ИИ — они укажут, насколько эти эмоциональные новости являются абсурдными. Качество данных определяет предел модели — это фундаментальная проблема.