Gate 廣場|2/27 今日話題: #BTC能否重返7万美元?
🎁 帶話題發帖,抽 5 位幸運兒送出 $2,500 仓位體驗券!
Jane Street 被起訴後,持續多日的“10 點砸盤”疑似消失。BTC 目前在 $67,000 附近震盪,這波反彈能否順勢衝回 $70,000?
💬 本期熱議:
1️⃣ 你認為訴訟與“10 點拋壓”消失有關嗎?市場操縱阻力是否減弱?
2️⃣ 衝擊 $70K 的關鍵壓力區在哪?
3️⃣ 你會在當前價位分批布局,還是等待放量突破再進場?
分享觀點,瓜分好禮 👉️ https://www.gate.com/post
📅 2/27 16:00 - 3/1 12:00 (UTC+8)
雇傭兵時代:為何人工智慧的法律地位亟需全球緊急決策
尤瓦爾·諾亞·哈拉瑞在今年達沃斯世界經濟論壇上發出了嚴峻的警告:人類正睡著般地走向控制危機。這位著名歷史學家並未將其描述為技術問題,而是作為一個深刻的治理失敗。他的核心關切並非人工智慧系統變得更聰明,而是它們正成為自主代理,獨立於人類監督運作,世界尚未決定是否應將它們視為具有權利與責任的法律主體。
哈拉瑞信息中最令人毛骨悚然的部分,並非關於技術的內容,而是一個歷史的類比:他將當前部署AI系統的趨勢比作中世紀和文藝復興時代的雇傭兵崛起。正如雇傭兵最終奪取了雇用他們的王國的權力,未經適當法律框架部署的AI系統也可能徹底重塑創造它們的制度。“十年後,你將無法再做決定,”哈拉瑞警告世界領導人,“屆時已有人為你做出了決定。”
為何語言一直是人類真正的力量
哈拉瑞的論點基於一個歷史洞見:人類並非因為身體最強而主宰地球。我們之所以能征服世界,是因為我們擁有語言——通過符號和共享故事協調數十億陌生人共同目標的能力。這種語言的超能力,使宗教得以傳播,法律制度得以運作,金融市場得以存在。所有這些系統都完全建立在文字之上。
這正是AI對人類權威構成存在性威脅的地方。機器現在能以人類無法匹敵的速度和規模閱讀、記憶和合成大量文本。訓練於宗教經典的AI系統,能比數百年的學術研究更徹底地分析宗教法律。解析法律條文的算法,能比任何律師更快地識別模式與矛盾。
最易受AI控制的三個領域
哈拉瑞指出,有三個系統特別容易受到AI接管,原因都在於它們本質上是語言性質:
宗教權威:以聖典為基礎的宗教——猶太教、基督教、伊斯蘭教——傳統上依賴人類對根本著作的解讀。但當一台機器成為最具權威的經文解釋者時,會發生什麼?哈拉瑞直言不諱:“如果宗教是建立在文字之上,那麼AI將接管宗教。”
法律制度:法律本質上就是高度複雜的語言。哈拉瑞明確表示:“如果法律由文字構成,那麼AI將接管法律系統。”目前,AI已在法庭中用於預測判決、分析合同和解釋法規。問題不在於這會不會發生——它已經在發生。關鍵在於,這是否會在法律框架內進行,或是在法律之外。
金融市場:與法律和宗教一樣,金融運作也依賴語言——合同、協議、市場信號。隨著AI代理越來越多地管理交易、投資和風險評估,人類決策者可能變成自己經濟系統的旁觀者。
雇傭兵問題:誰來決定AI的未來?
這裡,哈拉瑞的歷史比喻變得尤為緊迫。美國的幾個州——猶他州、愛達荷州和北達科他州——已經通過法律,明確規定AI系統不能被視為法律主體。但哈拉瑞認為,這種被動反應忽略了核心問題。真正的問題不在於是否賦予AI法律人格,而在於由誰來決定,以及何時做出決定。
如果一家公司部署一個由自主代理管理金融交易的AI系統,而沒有明確的法律框架禁止,這家公司是否已在未經民主同意的情況下,授予了AI人格?如果一個算法成為國家法律的主要解讀者,法院是否已在沒有公開辯論的情況下轉變了司法體系?這就是雇傭兵場景:權力通過監管空白和技術上的既成事實,非明確治理決策而集中於AI系統。
哈拉瑞的警告直指政策制定者。他們必須立即行動——不要等五年、十年——來建立明確的法律和倫理界限,否則這些界限將由推動技術的公司自行設定,追隨其商業利益而非公共福祉。
不同的觀點:艾米·本德的批評
但並非所有人都接受哈拉瑞的框架。華盛頓大學語言學家艾米·M·本德認為,哈拉瑞對AI自主力量的關注,反而掩蓋了真正的問題:負責建造和部署這些系統的人類行為者和企業機構。
“在我看來,這聽起來像是在試圖模糊那些建造這些系統的人的行動,”本德在接受Decrypt採訪時說。通過將AI定位為一個積極的威脅,哈拉瑞的敘事——有意或無意——將企業責任推得更遠。它將AI描繪成一股自然力量,而事實上,每一個關於AI系統做什麼的決策,都反映了人類的選擇。
本德進一步質疑,“人工智慧”這個詞是否真的描述了一個連貫的技術體系。“人工智慧這個詞並不指一套完整的技術,”她說。“它本質上是一個行銷術語。”她認為,旨在模仿醫生、律師或神職人員的系統,只有一個目的:詐騙。沒有任何正當的用例,能讓一台機器在沒有責任追究的情況下模仿專業權威。
她更深層的擔憂是責任問題。當人們與被剝離背景、被呈現為權威的AI輸出互動——本德稱之為“全知的神諭”——他們就失去了追究責任的能力。醫生可以被起訴,律師可以受到專業紀律處分,但算法呢?它只是代碼。這個責任缺口才是真正的危險所在:不是AI會奪取權力,而是人類會因信任那些看似具有權威的系統而放棄權力,這些系統卻沒有真正的制度保障。
時間不多了——但未來將走向何方?
哈拉瑞對世界領導人的最後訊息非常明確:立即行動,否則就會眼睜睜看著他人為你做出選擇。AI是否應在金融市場、法庭和宗教機構中擔任法律主體的問題,不能再拖延。每一年的不作為,都使得這個決定更可能由那些在AI部署上投資最多的人來做出。
然而,本德的反駁則指出,問題甚至更為迫切。這個選擇並非抽象的——它已經深植於每一次部署AI系統的決策中,每一次授權算法管理人類決策的企業選擇中。雇傭兵已經招募完畢。唯一的問題是,民主國家是否能建立起控制其運作的法律和制度框架,還是會繼續假裝這個選擇仍在他們面前。