剛剛注意到,Anthropic 和 OpenAI 都大幅調整了他們的安全承諾。 在 Anthropic 的責任式成長指南中,一個核心承諾被直接刪除——具體來說,就是在風險降低措施不足時,暫停 AI 訓練的承諾。Anthropic 的首席科學官 Jared Kaplan 解釋說,這是因為高度競爭的市場現實。一個單方面的暫停在競爭壓力下是不切實際的。



在 OpenAI 也是類似情況:使命宣言被重新措辭,並且刪除了“安全”一詞。取而代之的是,現在的重點放在 AI 應該造福人類。這當然符合投資者和政策制定者的預期,但也顯示出這些公司如今的務實思維。

時間點很有趣:Anthropic 正在完成一輪價值 300 億美元的融資,估值達到 3800 億美元。OpenAI 目標則高達 1 兆美元,並得到亞馬遜、微軟和英偉達的支持。這也就不難理解為什麼這些安全措辭被省略——壓力實在太大。

另一點是:Anthropic 拒絕讓五角大廈完全訪問 Claude,這引發了與美國國防部長 Pete Hegseth 的緊張關係。這也提出了關於國防合同的疑問,顯示安全考量與地緣政治現實有時相互矛盾。很有趣看到這個行業正如何重新定義自己。
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言