人工知能を支配しようとする世界的な競争は白熱しているが、世界有数のコンピューター科学者の一人は、ビッグテックが人類の未来を無謀に賭けていると警告している。おすすめ動画* * *AIの最も声高な意見は、しばしば二つの陣営に分かれる:技術を世界を変えるものと称賛する者と、その暴走を防ぐために自制や封じ込めを促す者だ。カリフォルニア大学バークレー校の先駆的なAI研究者、スチュアート・ラッセルは、後者の立場に堅く属している。彼の主な懸念の一つは、政府や規制当局が技術の急速な展開に追いつけず、民間セクターが最終的な勝負に突き進むレースに巻き込まれ、その結果、冷戦時代以来見られなかった危険な競争に発展するリスクがあることだ。「政府が民間企業に対して、地球上のすべての人間とほぼ同時にロシアンルーレットをさせることを許すのは、私の見解では完全な義務怠慢です」と、ラッセルは新デリーで開催されたAIインパクトサミットでAFPに語った。技術企業のCEOたちは、次世代最高のAIモデルを開発する「軍拡競争」に巻き込まれているが、業界はこれが最終的に医療研究や生産性の飛躍的な向上をもたらすと主張している一方、多くはリスクを無視したり軽視したりしているとラッセルは指摘する。最悪の場合、規制のないまま革新の速度が加速しすぎると、人類の絶滅につながる可能性もあると彼は考えている。ラッセルは、AIの急速な展開に潜む存在の危険性について熟知している。英国生まれのコンピューター科学者で、40年以上にわたりAIを研究し、1995年にはこの分野で最も権威のある教科書の一つを出版した。2016年には、AIの安全性に焦点を当てた研究センターをバークレーに設立し、「証明可能に有益な」AIシステムを人類のために推進している。新デリーでラッセルは、企業や政府がその目標からいかに遠く離れているかについても言及した。彼の批評は、最終的に創造者を凌駕するシステムの急速な開発に焦点を当てており、その過程で人類文明が「巻き添え被害」になる可能性を指摘している。主要なAI企業のトップたちは、これらの存在的危険性を認識しているが、市場の力によっていずれも行き詰まっている。「主要なAI企業のCEOたちは皆、武装解除を望んでいると私は信じているが、それは一方的にはできない」とラッセルは述べた。なぜなら、その立場は競合他社に奪われ、投資家から即座に追放される危険があるからだ。**新冷戦**--------------------存在の危険性や人類の絶滅の可能性についての議論は、かつては冷戦時代の核兵器の暴走の脅威に限定されていた。大国が武器を蓄積し、ライバルがそれを超えることを恐れたためだ。しかし、スチュアート・ラッセルのような懐疑論者は、次第にその枠組みを人工知能の時代に適用し始めている。米国と中国の間の競争は、多くの場合、AIの「軍拡競争」と呼ばれ、20世紀後半のワシントンとモスクワの核対立を特徴づけた秘密主義、緊迫感、そして高いリスクを伴っている。ロシアのプーチン大統領は、ほぼ10年前にその巨大なリスクを端的に表現した。「この分野でリーダーシップを握る者が世界の支配者になる」と2017年の演説で述べた。現在の軍拡競争は兵器の数で測れるものではないが、その規模は投入されている膨大な資本に表れている。各国や企業は、AIの訓練と運用のために数百億ドルを投じている。米国だけでも、今年のAI関連の資本支出は6000億ドルを超えると予測されている。しかし、ラッセルは、積極的な企業の行動に対して規制による抑制が追いついていないと指摘する。「各国の政府がこの問題を理解していることが非常に重要です。だからこそ、私はここにいる」と彼はインドのサミットについて述べた。中国やEUは、技術の規制に対してより厳しい姿勢を取っている国々の一つだ。それ以外の地域では、より手つかずの対応が取られている。インド政府は、主に規制緩和の方針を採用している。一方、米国では、トランプ政権がAIに対して市場原理主義を推進し、多くの州レベルの規制を撤廃して企業に自由な裁量を与えようとしている。私たちと一緒にフォーチュン職場革新サミットに参加しませんか 2026年5月19日〜20日、アトランタで開催される次世代の職場革新の時代が到来している—そして古い戦略は書き換えられている。このエリートでエネルギッシュなイベントでは、世界の最も革新的なリーダーたちが集まり、AI、人類、戦略がどのように融合し、再び働き方の未来を再定義するのかを探る。今すぐ登録してください。
AIの軍拡競争で「ロシアンルーレット」をしているビッグテック幹部は、人類絶滅の危険を伴う可能性があると、トップ研究者が警告
人工知能を支配しようとする世界的な競争は白熱しているが、世界有数のコンピューター科学者の一人は、ビッグテックが人類の未来を無謀に賭けていると警告している。
おすすめ動画
AIの最も声高な意見は、しばしば二つの陣営に分かれる:技術を世界を変えるものと称賛する者と、その暴走を防ぐために自制や封じ込めを促す者だ。カリフォルニア大学バークレー校の先駆的なAI研究者、スチュアート・ラッセルは、後者の立場に堅く属している。彼の主な懸念の一つは、政府や規制当局が技術の急速な展開に追いつけず、民間セクターが最終的な勝負に突き進むレースに巻き込まれ、その結果、冷戦時代以来見られなかった危険な競争に発展するリスクがあることだ。
「政府が民間企業に対して、地球上のすべての人間とほぼ同時にロシアンルーレットをさせることを許すのは、私の見解では完全な義務怠慢です」と、ラッセルは新デリーで開催されたAIインパクトサミットでAFPに語った。
技術企業のCEOたちは、次世代最高のAIモデルを開発する「軍拡競争」に巻き込まれているが、業界はこれが最終的に医療研究や生産性の飛躍的な向上をもたらすと主張している一方、多くはリスクを無視したり軽視したりしているとラッセルは指摘する。最悪の場合、規制のないまま革新の速度が加速しすぎると、人類の絶滅につながる可能性もあると彼は考えている。
ラッセルは、AIの急速な展開に潜む存在の危険性について熟知している。英国生まれのコンピューター科学者で、40年以上にわたりAIを研究し、1995年にはこの分野で最も権威のある教科書の一つを出版した。2016年には、AIの安全性に焦点を当てた研究センターをバークレーに設立し、「証明可能に有益な」AIシステムを人類のために推進している。
新デリーでラッセルは、企業や政府がその目標からいかに遠く離れているかについても言及した。彼の批評は、最終的に創造者を凌駕するシステムの急速な開発に焦点を当てており、その過程で人類文明が「巻き添え被害」になる可能性を指摘している。
主要なAI企業のトップたちは、これらの存在的危険性を認識しているが、市場の力によっていずれも行き詰まっている。「主要なAI企業のCEOたちは皆、武装解除を望んでいると私は信じているが、それは一方的にはできない」とラッセルは述べた。なぜなら、その立場は競合他社に奪われ、投資家から即座に追放される危険があるからだ。
新冷戦
存在の危険性や人類の絶滅の可能性についての議論は、かつては冷戦時代の核兵器の暴走の脅威に限定されていた。大国が武器を蓄積し、ライバルがそれを超えることを恐れたためだ。しかし、スチュアート・ラッセルのような懐疑論者は、次第にその枠組みを人工知能の時代に適用し始めている。米国と中国の間の競争は、多くの場合、AIの「軍拡競争」と呼ばれ、20世紀後半のワシントンとモスクワの核対立を特徴づけた秘密主義、緊迫感、そして高いリスクを伴っている。
ロシアのプーチン大統領は、ほぼ10年前にその巨大なリスクを端的に表現した。「この分野でリーダーシップを握る者が世界の支配者になる」と2017年の演説で述べた。
現在の軍拡競争は兵器の数で測れるものではないが、その規模は投入されている膨大な資本に表れている。各国や企業は、AIの訓練と運用のために数百億ドルを投じている。米国だけでも、今年のAI関連の資本支出は6000億ドルを超えると予測されている。
しかし、ラッセルは、積極的な企業の行動に対して規制による抑制が追いついていないと指摘する。「各国の政府がこの問題を理解していることが非常に重要です。だからこそ、私はここにいる」と彼はインドのサミットについて述べた。
中国やEUは、技術の規制に対してより厳しい姿勢を取っている国々の一つだ。それ以外の地域では、より手つかずの対応が取られている。インド政府は、主に規制緩和の方針を採用している。一方、米国では、トランプ政権がAIに対して市場原理主義を推進し、多くの州レベルの規制を撤廃して企業に自由な裁量を与えようとしている。
私たちと一緒にフォーチュン職場革新サミットに参加しませんか 2026年5月19日〜20日、アトランタで開催される次世代の職場革新の時代が到来している—そして古い戦略は書き換えられている。このエリートでエネルギッシュなイベントでは、世界の最も革新的なリーダーたちが集まり、AI、人類、戦略がどのように融合し、再び働き方の未来を再定義するのかを探る。今すぐ登録してください。