AI成功の鍵?「モデル」ではなくデータガバナンス。

企業が次々と人工知能(AI)を未来の成長エンジンに指定し積極的に導入する一方で、業界全体から警告の声が上がっている:AIの成功の鍵は実は「モデル」ではなく、「データ管理」にある。特に、非構造化データの分類と可視性の確保が欠如している場合、AIだけでなく、セキュリティやコンプライアンスの分野全体が根底から揺らぐ可能性がある。

非構造化データガバナンスソリューション企業のCongruity360の分析によると、このリスクはAI時代の企業にとって致命的な「盲点」になりつつある。多くの組織はAI導入に巨額を投資しているが、その成功はデータの分類と管理の効率にかかっている。

現在、全企業のうち41%はデータ分類ツールを全く持たず、わずか37%が今後2年以内に導入を計画しているに過ぎない。これにより、企業内部の未分類の高リスクデータがファイルサーバー、NAS、クラウドなど各所に無防備に露出している状態となっている。その結果、ITやセキュリティチームは大量の時間と予算を投入して事後のクリーンアップを行わざるを得ず、その過程で内部の信頼も損なわれている。

theCUBE ResearchのChristophe Bertrandは、「AIの影響は業務プロセスや作業負荷を超え、全体のビジネスに波及するため、AI基盤のデータインフラも根本的に保護される必要がある」と強調し、データセキュリティの重要性を浮き彫りにしている。

Congruity360の最高執行責任者Mark Wardは、「データの増加に伴い、企業の分類、廃棄、管理能力が追いついていない。この不均衡は、すでに孤立化している非構造化データ環境を固定化し、結果としてセキュリティ事故や違反の潜在リスクを雪だるま式に拡大させている」と警告している。

さらに、企業内部で適切に分類されていない放置データや重複ドキュメント、古いメールなどのいわゆるROTデータ(冗長、過時、細切れデータ)は、単なるストレージコストの問題にとどまらず、敏感情報の漏洩や違反リスクを直接引き起こす可能性がある。Wardは、「5年前に退職した社員が残したファイル共有フォルダに個人情報が含まれているだけで、法的リスクが現実化する」と説明している。

「運用効率、安全強化、コンプライアンス対応、ビジネスリスク低減」の4つの柱を軸とした戦略が注目されており、そのために多くの企業がクラウドやオンプレミス環境で迅速に盲点を特定できるDSPM(データセキュリティ態勢管理)を導入している。Wardは、対応速度を重要な競争力とみなし、「1週間以内に顧客のデータセキュリティ状況を可視化できる」と述べている。

数百PB規模のデータを扱う大企業にとっては、さらに深刻な問題となる。定期的な運用監査が行われていなければ、これらのデータは見えないリスクとして蓄積され、突発的なセキュリティ事故や監査失敗、規制当局の調査を招く可能性がある。これに対し、Congruity360は継続的なデータ診断とライフサイクル管理を並行して行い、不必要なスナップショットや古いバックアップの除去を支援し、ストレージ効率を向上させている。

ROT管理戦略の核心は、直感的な「データ監視体系」の構築にある。誰がいつどの情報にアクセスしたかを追跡できる必要があり、不必要なストレージの削減とともに、GDPRやHIPAAなど各種コンプライアンス要件も満たす必要がある。

この種のデータガバナンスが注目される理由は、その安全性の強調を超え、AIの成功の前提条件となる点にある。デレセール大学の調査によると、62%の企業がAI導入が遅れている原因は「脆弱なデータガバナンス」にあると指摘している。Wardは、「クリーンで分類されたデータに基づくAIだけが信頼できる結果を提供できる。粗悪なデータでAIモデルを訓練することは、計算資源の浪費だけでなく、規制リスクを拡大させる」と強調している。

Congruity360は、フォーチュン1000企業から中小企業までのさまざまな顧客向けに、SaaSベースのDSPMサービスを提供している。DSPMは、データの一部属性を評価するツールであるだけでなく、AIとセキュリティの両面から情報の価値とリスクを同時に診断するチャネルでもある。その内容は、▲定期的なデータ監査とROTの除去 ▲あらかじめ設定した分類ルール ▲不要なバックアップの削除 ▲敏感度に応じたストレージの再配置 ▲データ寿命を軸とした廃棄ポリシーの構築などを含む。

最後に、Congruity360はROT管理を一度きりのプロジェクトではなく、日常の運用タスクとして位置付けることの重要性を強調している。ROTは静的な目標ではなく、継続的に強化すべきセキュリティ文化だからだ。Wardは、「人的ミスは依然としてセキュリティ脆弱性の最大の原因である。退職者のアカウント残留や誤った分類による敏感データの露出などの問題は繰り返し発生している」と警告している。

結局のところ、AIがデータを抽出する前に、そのリスクをコントロールしなければならない。ガバナンスがAIプロジェクトの成功を導くと同時に失敗させる可能性もあることを認識したとき、真の「AIに基づくガバナンス安全体系」が稼働し始める。今や、企業がデータを正しく見極められなければ、その直面するリスクは単なる可能性の問題ではなく、確率の問題へと変わっている。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン