OpenTextは、Ponemon Instituteと共同で実施したグローバルサーベイ「Managing Risks and Optimizing the Value of AI, GenAI & Agentic AI(AI、生成AI、およびエージェント型AIのリスク管理と価値の最適化)」の調査結果を発表した。
AIのセキュリティとガバナンスは遅れをとっている
- サイバーセキュリティ分野において、システムの完全な導入とセキュリティリスクの評価が行われている「AI成熟」の段階にまだ達していない組織は、10社中8社近く(79%)に上る
- AIに特化したデータプライバシーポリシーを策定している組織は、41%にとどまる
- 回答者の過半数(62%)は、言語モデル開発において、モデルやバイアスのリスク(倫理的かつ責任あるAI原則の違反など)を最小化することは難しいと述べている
- 回答者の半数以下(43%)が、バイアス、セキュリティ上の脅威、倫理的問題といったAI関連のリスクに対処するリスクベースのAIガバナンスアプローチを採用している
- 回答者の58%が、プロンプトや入力に関するリスク(たとえば、誤解を招く、不正確な、または有害な回答)を最小限に抑えることは非常に難しい、または極めて難しいと答えている
- 回答者の半数以上(56%)が、意図しない誤情報の拡散など、ユーザーリスクの管理に課題を抱えていると報告している
- 回答者の約6割(59%)が、AIによってプライバシーとセキュリティに関する規制への準拠がより困難になると回答しているにもかかわらず、AIに特化したデータプライバシーポリシーを策定していると回答したのは41%にとどまる
AIバイアスや信頼性のリスクが依然として残る中、AIの脅威検知能力には課題が残る
- AIが異常や新たな脅威の検出にかかる時間を短縮するのに効果的だと答えている回答者は51%にとどまっている。半数未満(48%)は、脅威の検出や、より深い洞察の獲得、手作業の負担軽減においてAIが効果的だと評価していない
- AIモデルとバイアスのリスクが、その有効性を制限している。回答者の約3分の2(62%)が、不公平または差別的な出力を含むモデルとバイアスのリスクを最小限に抑えることは非常に困難、あるいは極めて困難だと回答
- 運用上の信頼性も課題となっており、回答者の45%がAIの意思決定ルールにおけるエラーを有効性を阻害する最大の要因として挙げ、40%はAIが取り込むデータ入力におけるエラーを報告している
完全な自律型AIの実現に向けた課題
- 組織の半数未満(47%)が、自社のAIモデルは堅牢な規範を学習し、自律的に安全な判断を下せると回答しており、AIモデルの自律性が高まるにつれ、その信頼度は控えめなものとなっている
- その結果、回答者の半数以上(51%)が、攻撃者が適応できるスピードの速さから、AIガバナンスには人間の監視が必要だと回答
【調査方法】
Ponemon Instituteは、北米、アジア太平洋、ヨーロッパ、中東、アフリカ、ラテンアメリカのITおよびITセキュリティ従事者1,878名を対象に、独自調査を実施した。この調査では、金融サービス、ヘルスケア、テクノロジー、エネルギー、製造業など、規模や業種を問わず、さまざまな組織からの意見を収集した。調査は2025年11月に実施された。回答者には、ITセキュリティ、エンジニアリング、インフラストラクチャ、リスク管理およびコンプライアンス、その他AIとセキュリティ戦略に関わる職種の経営幹部、意思決定者、実務担当者が含まれている。
