Gate 广場「創作者認證激勵計畫」優質創作者持續招募中!
立即加入,發布優質內容,參與活動即可瓜分月度 $10,000+ 創作獎勵!
認證申請步驟:
1️⃣ 打開 App 首頁底部【廣場】 → 點擊右上角頭像進入個人首頁
2️⃣ 點擊頭像右下角【申請認證】,提交申請等待審核
立即報名:https://www.gate.com/questionnaire/7159
豪華代幣獎池、Gate 精美周邊、流量曝光等超過 $10,000 的豐厚獎勵等你拿!
活動詳情:https://www.gate.com/announcements/article/47889
像Grok這樣的AI聊天機器人能解決社交媒體的回音室問題,還是會帶來新的問題?
Elon Musk 的 AI 助手 Grok 在加密與科技社群中引發了激烈辯論,討論其對資訊品質的實際影響。Vitalik Buterin 最近也參與了討論,提出了一個細膩的觀點,挑戰了愛好者與懷疑者。
格羅克《誠實因素》的悖論
根據Buterin的分析,Grok代表了某些社群媒體動態的淨正面發展——尤其是引入他所謂的「誠實因素」於資訊交流中。AI 不僅僅強化用戶偏好,有時還會以與既有偏見相悖的觀點來面對人們,並在此過程中拒絕極端或片面的問題。
然而,這種能力同時也帶來脆弱性。系統仍容易產生幻覺——產生聽起來合理但完全錯誤的資訊。一個臭名昭著的例子是 Grok 錯誤報導了邦迪海灘的一起大規模槍擊事件,顯示 AI 生成的錯誤資訊即使主流曝光也能迅速傳播。
不只是另一個演算法
在布特林看來,格羅克的區別在於一個意想不到的副作用:其固有的混亂無意中產生了一種類似於分散式抗拒單一敘事控制的機制。與設計來呈現統一觀點的系統不同,Grok 的不一致與偶爾的矛盾實際上阻擋了跨平台單一政治或意識形態敘事的出現。
未解之謎
批評者正確指出,這不一定能防止偏見——只是可能以不同的方式重新分配偏見。Grok 最終究竟是擴展了創意市場,還是僅僅為現有資訊生態系統增添了複雜的雜訊,仍是個未解之謎。答案很可能取決於使用者如何與這項技術互動,以及他們是否將 AI 輸出視為對話開場白而非可信來源。
這場辯論反映了人工智慧發展中更廣泛的張力:使系統更有趣或更抗操控的特性,也可能使其成為不可靠的事實來源。