🎄 聖誕季相遇 Gate 廣場,共享節日驚喜!
🎉 Gate 廣場社區成長值「聖誕抽獎狂歡」第 1️⃣ 5️⃣ 期火熱開啟!
立即參與 👉 https://www.gate.com/activities/pointprize?now_period=15
✨ 如何參與?
1️⃣ 前往 Gate 廣場【積分中心】完成日常任務,輕鬆賺取成長值
2️⃣ 每累計 300 成長值,即可抽獎一次!
🎁 聖誕豪禮等你解鎖:
金條 10g、Gate 聖誕限定周邊等超值好禮,統統帶回家!
📅 12 月 18 日 - 12 月 26 日 24:00 (UTC+8)
🎅 聖誕好運不停,驚喜輪番來襲!
了解更多 👉 https://www.gate.com/announcements/article/48766
#BTC #ETH #SOL #GT
新研究發現,AI 政治聊天機器人能影響選民
簡而言之
Decrypt 的藝術、時尚與娛樂中心
探索 SCENE
康奈爾大學與英國 AI 安全研究院的新研究發現,在受控的選舉環境中,廣泛使用的 AI 系統可能讓選民偏好改變高達 15%。
這些發現發表於《Science》(科學)與《Nature》(自然)期刊,正值各國政府與研究人員檢視 AI 可能如何影響即將到來的選舉周期,同時開發者也努力消除消費者導向模型中的偏見。
「公眾對生成式人工智慧可能被用於政治說服、以及對選舉和民主帶來的影響深感擔憂,」研究人員寫道。「我們運用預先登記的實驗,評估大型語言模型影響選民態度的能力,以回應這些疑慮。」
《自然》期刊的研究在美國、加拿大與波蘭測試了近 6,000 名參與者。參與者先評價一位政治候選人,接著與支持該候選人的聊天機器人互動,然後再次評價該候選人。
在美國部分,針對 2024 年總統大選前的 2,300 人,當聊天機器人的立場與參與者偏好一致時,產生了強化效果。而較大的偏好轉變則發生在聊天機器人支持的是參與者原本反對的候選人。研究人員在加拿大和波蘭也得到了類似結果。
研究還發現,聚焦政策的訊息比以個性為主的訊息更能發揮說服力。
不同對話中的準確性有差異,支持右派候選人的聊天機器人發表不準確陳述的情況,比支持左派候選人的更為常見。
「這些發現帶來令人不安的啟示——AI 的政治說服可以利用模型知識上的不平衡,即便在明確要求保持誠實的情境下,仍然可能散播不均勻的不實訊息,」研究人員表示。
另一項發表在《科學》的研究則探討為何會發生說服效果。該研究針對英國 76,977 名成年人,在 700 多個政治議題上,測試了 19 種語言模型。
「人們普遍擔憂,對話式人工智慧很快就能對人類信念產生前所未有的影響,」研究人員寫道。
他們發現,提示技巧對說服力的影響大於模型規模。鼓勵模型引入新資訊的提示提升了說服力,但降低了準確性。
「鼓勵 LLM 提供新資訊的提示,在說服人們方面最為有效,」研究人員寫道。
這兩項研究發表之際,分析師與政策智庫也在評估選民如何看待 AI 在政府角色中的運用。
根據 Heartland Institute 與 Rasmussen Reports 最近的調查,年輕保守派比自由派更願意讓 AI 參與重大政府決策。年齡在 18 至 39 歲的受訪者被問及是否應讓 AI 系統協助指導公共政策、解釋憲法權利或指揮主要軍隊。保守派表現出最高的支持度。
Heartland Institute 下屬 Glenn C. Haskins 新興議題中心主任 Donald Kendal 表示,選民常常誤判大型語言模型的中立性。
「我一直試圖強調,必須打破人工智慧無偏見這種錯覺。它很明顯具有偏見,而且有些偏見是被動產生的,」Kendal 在接受《Decrypt》採訪時說,並補充道,當企業的訓練決策形塑了 AI 行為時,對這些系統的信任很可能被誤置。
「這些模型是由大型矽谷企業所打造,我們從近年科技審查的爭議可以看到,有些公司在平台內容分發上並不避諱『壓秤』,」他說。「如果同樣的情況發生在大型語言模型上,那我們得到的就是有偏見的模型。」