AI與軍事合約的故事出現了有趣的轉折。事實證明,當涉及巨額資金時,即使是宣稱具有高道德標準的公司,也開始重新審視自己的立場。



一切始於Anthropic,Claude的創建者,拒絕迎合五角大廈的要求。軍方要求取消所有關於大規模監控和自主武器的AI使用限制。Anthropic選擇了堅持原則的道路,拒絕了這份價值2億美元的合約。這對任何公司來說都是一個嚴重的風險,但他們將道德問題置於財務利益之上。

作為回應,五角大廈沒有客氣。Anthropic被正式列為供應鏈安全的威脅,幾乎剝奪了他們參與軍事項目的資格。看起來,這是故事的結束。

但最精彩的部分才剛開始。OpenAI,最初被視為Anthropic在道德問題上的同路人,意外地與五角大廈簽署了類似條件的合約。只是,OpenAI並未提供任何關於限制的保證。實際上,他們取代了Anthropic的位置,但沒有那份堅持原則。

這是一個展示真實商業運作的好例子。關於道德的美好言辭聽起來很好,直到出現嚴肅的提議。當錢擺在桌上時,優先順序可能會改變。OpenAI表明,對他們來說,與政府的合作中,道德已不如合約的可能性重要。

這個情況反映出AI產業中日益升高的緊張局勢。一方面,公司談論負責任的技術發展和道德框架;另一方面,政府部門推動擴展能力,而公司之間的競爭促使他們在原則上做出妥協。當涉及軍事應用和大規模國家合約時,道德問題變得越來越複雜。
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 回覆
  • 轉發
  • 分享
回覆
請輸入回覆內容
請輸入回覆內容
暫無回覆