シリコンバレーのスタートアップチームは皆、自分たちの製品を破壊的イノベーションと呼ぶが、Anthropicのように本当に破壊的イノベーションを生み出しながら存亡の危機に直面している企業は他にない。「破壊的イノベーション」がシリコンバレーのベンチャーキャピタルの耳に飽き飽きされる陳腐な言葉となる中、Anthropicは現代の黙示録を示し、技術革新によって企業評価額を倍増させた。しかし、その政治的レッテル貼りと規制の嵐が追い打ちをかけ、同社を底に叩き落とした。タイム誌は独占的にこのAI界の奇人たちの背後にある物語を掘り下げ、国家安全保障と強敵に囲まれる中で、人類を守ると誓ったAI企業が、圧力の中でどう生き延びているのかを明らかにしている。
Anthropicは急速に成長し、ソフトウェア業界に脅威をもたらす
AIの商業応用において、Anthropicの時価総額は3800億ドルに達し、収益も著しく伸びており、ゴールドマン・サックス、マクドナルド、コカ・コーラを超える規模となっている。Anthropicが開発したClaudeは、コードの自動実行、バグの発見、システムの最適化を独立して行うことができ、従来のソフトウェアエンジニアの仕事のあり方を根底から覆している。投資家は、Anthropicには金融市場に影響を与える能力もあると気づき、新バージョンのリリースごとにソフトウェア株が激しく揺れることもある。CEOのアモディは、今後5〜10年でAIが多くのホワイトカラー職を置き換える可能性を予測しており、このビジネスの成功と社会的リスクが共存する現象に、社内の社会観察評価チームは矛盾を感じている。一方では生産性と業績向上を推進したいが、他方では自社製品が大規模な失業を引き起こす懸念も抱いている。
Claude 3.7 Sonnetの潜在的リスク
人類の安全を企業理念とするAnthropicは、技術革新と政府規制の嵐の中心に位置している。同社が守るべき倫理的基準は、米国国防総省の調達要求に直面すると、封殺の危機に瀕している。
内部基準テストによると、Claudeは特定の重要任務を人間より427倍速く実行できるという。昨年2月、Anthropicの技術者たちは、リリース間近のClaudeのバージョンに生物兵器の製造に関与する潜在リスクがあることを発見し、この発見により同社はClaude 3.7 Sonnetのリリースを緊急で延期した。安全性への高い意識を示している。AnthropicのRed Teamリーダー、ローガン・グレアムは、核戦争や人類絶滅といった災厄を引き起こす可能性のあるAIの開発において、開発者は社会的責任を負っていると指摘し、現行の業界には公認された解決策が存在しないため、リソースとリスク管理のバランスを取る必要があると述べている。この人命優先の企業基準は、AI界において唯一無二の存在となっている。
企業倫理とトランプ政権との対立
Anthropicと米国政府の関係は昨年から急激に変化し始めた。同社が全自動武器や市民監視へのAI応用を拒否したため、ペンタゴンとの再交渉を拒否した結果、トランプ政権は同社を国家安全保障リスクの供給者に指定した。これは米国政府が国内企業に対して初めてこのようなレッテルを貼った事例である。国防総省は、民間企業が軍事指揮系統に制限を設けるべきではないと考えており、アモディは内部メモで、同社がトランプ氏への献金や特定の政治目的に協力しないこと、透明な規制を堅持していることが原因だと述べている。この行き詰まりにより、競合のOpenAIが軍事契約を獲得した。問題の核心は、誰が技術の制御権を持つのかという点にある。
創業者アモディはAI界のアート系奇人
Anthropicの理念にこだわる創業者アモディのユニークさは語り草だ。2024年に彼は1万4000字のエッセイを執筆し、AIが科学発見を加速させ、世界を変えるユートピア的ビジョンを語った。今年1月には、AIの進歩による危機、例えば大規模監視や失業、さらには人類の制御喪失などについて詳細に描いた中編小説を発表している。自社の製品を自ら批判し、不幸をもたらすことを恐れる創業者など、普通のスタートアップ創業者には考えられないことだ。
AIビジネスの争いの中で、OpenAIが一時的に優勢
タイム誌の報道によると、Anthropicは知らぬ間に、PentagonがChatGPTを政府システムに導入するためOpenAIと交渉している最中だった。後に、OpenAIの創業者オルトマンが米国防総省と合意したと報じられた。この契約は、Anthropicのものと似た内容だった。アモディは社員に対し、オルトマンと米国防総省は「社会を欺いている」と伝え、彼らの合意には多くの制約があると信じさせようとしていると述べた。さらに、マスク率いるxAIも機密サーバー上でモデルを提供し、五角大廈はGoogleとも交渉中であることも明らかになった。
Anthropicは遅延戦略を採用し、対応を先送り
Claudeは未来のAIモデル開発に必要なほとんどのコードを書き上げており、その結果、リリース間隔は月から週へと短縮された。Claudeは特定の任務において人間を大きく超える速度を実現し、経営陣は、将来的にAI技術が人間の制御を超える可能性を懸念している。
AIが自己進化の論理を書き始めたとき、人類に残された時間はどれほどか?外部競争が激化する中、Anthropicは最近、方針を変更した。新しい方針では、AIの安全リスクに関する透明性を高めることを約束し、Anthropic自身のモデルの安全性テスト結果も公開する。さらに、AIの競争優位性が災厄をもたらすと判断した場合には、「開発を遅らせる」ことも選択肢に入れている。
しかし、このAI倫理に関わる物語はまだ終わっていない。