<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=139163818022217&amp;ev=PageView&amp;noscript=1"> <img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=271598307802760&amp;ev=PageView&amp;noscript=1">

エンタープライズグレードのAIセキュリティ:
AIにデータを託すために必要なこと

 公開日:2025.02.14  Box Japan

  Box製品セミナー

エンタープライズグレードのAIセキュリティ: AIにデータを託すために必要なこと

エンタープライズレベルの機能を提供するAIモデルとベンダーを評価する方法

生成AIの驚くべき(そして進化する)メリットを考えると、企業が活用に向けて猛烈に突き進んでいるのも不思議ではありません。

  • しかし、企業がデータセキュリティ、プライバシー、コンプライアンスの複雑さを評価する中で、強力な対抗勢力がAIの導入を妨げています。企業は、AIモデルを安心して使用できるかどうか、データが安全に保たれるかどうかを知りたいと考えています。AIを信頼するという決定は、企業が生成AIのイノベーション(OpenAIやGoogleの最新モデルを含む)を活用できるかどうかを決定するという、重大かつ緊急な意味を持ちます。

この記事では、企業がAIモデルを信頼する方法と、選択したモデルがエンタープライズグレードの機能を提供することを確認するための基本的な基準について説明します。

起こりうる最悪の事態とは? AIによる情報漏洩のシナリオ

買収に関連するファイルなど、機密性の高いデータを扱っているとします。この取引の評価者の一人は、機密性の高い財務情報、従業員の給与、その他の重要な情報に関するデューデリジェンスを担当しています。このような場合、AIは非常に有益です。インサイトを提供し、戦略を特定し、リスクを評価し、複雑なドキュメントを要約できます。ただし、これはAIモデルが機密データにアクセスできることを意味します。

評価者がAIの結果に非常に感銘を受け、生成されたコンテンツに対する承認の意を示すために「いいね」アイコンをクリックしたとします。AIベンダーはその作業を「役に立った」と記録し、AIモデルが回答の生成に使用したすべての機密データとともに、回答を将来のモデルのトレーニングに使用するデータセットに保存します。

気がつけば、あなたの機密データが、すべてのユーザーがアクセスできる将来のモデルのトレーニングに使用されています。一般に公開されているモデルの場合、それはインターネット上のすべてのユーザーを意味します。これは、データセキュリティの観点からは、一般的なデータ漏洩となんら変わりはありません。

このシナリオは、AIモデルとベンダーが厳格なデータセキュリティとプライバシー基準を遵守し、潜在的な侵害を防ぎ、企業のデータの整合性と機密性を維持することが、極めて重要であることを強く表しています。つまり、AIデータの使用に関する制御に注意を払う必要があります。

AIデータセキュリティにおけるSaaSベンダーとホスティングプラットフォームの役割

技術スタックのすべてのレイヤーでデータセキュリティの問題が生じる可能性があるため、データに触れるすべてのシステムと組織が信頼できるものである必要があります。AIも例外ではなく、AIの信頼性は、AIモデルそのものの評価だけではありません。データへのアクセスを制御するベンダーを徹底的に評価する必要があります。

AIエコシステムの主なプレーヤーを考えてみましょう。

  • 従業員(データ権限を持つ)
  • SaaS企業(Box、Salesforceなど)
  • AIモデル(OpenAI GPTシリーズ、Anthropic Claude、Geminiなど)
  • ホスティングレイヤー(Azure、GCP、IBM、AWSなど)

一見、複数のレイヤーにわたってセキュリティとコンプライアンスを評価するのは大変なことのように思えるかもしれません。幸いなことに、大半の企業はすでに最も機密性の高いデータと業務の一部をこれらの企業に託しており、データの安全性を維持するための適切なデータ保護フレームワーク、法的契約、コンプライアンス認証、および技術的フレームワークを持っています。

また、主要なAIモデルのほとんどは、同じベンダーにホストされています。AnthropicモデルはAWSに、GeminiモデルはGCPに、OpenAIモデルはMicrosoft Azureにホストされています。Box、Salesforce、Zoom、Slackなどの企業は、これらのモデルを使用して、安全な方法で顧客データにAIを適用しています。

したがって、データセキュリティの観点からは、既存の信頼できるエンタープライズグレードのAIベンダーを使用することで、データセキュリティの信頼基準を満たし、リスクを大幅に軽減できます。これは、スタートアップ企業やハイパースケーラーでホストされていないAIモデル、AI製品を提供する新しいSaaS企業などの新しいベンダーを、AIセキュリティの観点で使用できないという意味ではありません。ただし、新しい企業は、最も機密性の高いデータを保護できるように、運用の成熟度と実績を評価するだけでなく、セキュリティ、コンプライアンス、プライバシーの既存の基準に準拠する必要があります。

AIでは、データセキュリティへの信頼が導入の前提条件となりますが、それだけでは十分ではありません。AIは、新たな課題や懸念をもたらします。機密データをAIモデルで安全に使用するには、それらの課題と懸念に具体的に対処する必要があります。

AIモデルを信頼できるかどうかを判断する際に確認すべき4つの質問

すべての質問に「はい」と答えられれば、そのAIモデルを信頼することができます。

1. そのベンダー(およびそのすべてのホスティングレイヤー)を信頼して、データを預けられます?

AIを信頼するための前提条件は、AI企業が最も機密性の高いデータを処理できることを確認できることです。企業向けのデータ保護利用規約がない消費者向け無料製品など、確立された企業契約を持たない企業にデータを託す企業はほとんどありません。機密データをベンダーに預けるには、コンプライアンス認証、契約条件、評判、企業規模、サブプロセッサの使用など、多くの考慮事項があります。この問題に対処するための簡単なアプローチは、現在使用しているのと同じデータ保護標準を適用することです。すでにベンダーにデータを預けている場合は、同じベンダーを使用してデータに対するAIの運用を管理することを検討しましょう。AIベンダーが確立された基準を満たしていることを確認することで、企業データのセキュリティと整合性を維持することができます。

2. そのベンダーは、AIトレーニングへのデータ使用を保証していますか?

ベンダーにデータを預けることができることを確認した後の次の質問は、AI特有であり、AIトレーニングへのデータ使用の制御に関するものです。上記の仮定シナリオが示すように、AIの最も憂慮すべきリスクの1つは、トレーニングで機密データが悪用される可能性があることです。

AIソリューションを導入する前に、企業には自社のデータに対するAIトレーニングに関する明示的な保証が必要です。これは、「企業データでトレーニングは行わない」というポリシーと同じくらい単純なことかもしれません。ただし、自社のデータでトレーニングされたモデルの潜在的な利点を考えると、より微妙なアプローチは「明示的な承認なしに、企業データでトレーニングは行わない」ことかもしれません。また、トレーニング後のモデルの所有者と管理者を把握し、専有情報の安全性を確保することも重要です。

ログ記録も重要な考慮事項です。AIの入力および出力ログには、機密情報が含まれていることがよくあります。いかなる場合でも、データへのアクセスをログに記録する必要があります(つまり、AIモデルがデータにアクセスした方法と理由に関する詳細)。ただし、機密データ(上記のM&Aの例における給与情報など)が誤って公開されるリスクを軽減するために、ログ記録は、1) データ保存を無効にするオプションを含める、または 2) ログが保持されている場合は厳格なデータセキュリティ基準に準拠する必要があります。多くのベンダーは、生成AIのログ記録を無効にできるオプションを提供しており、将来のトレーニング実行でデータが誤って使用されるという懸念を軽減しています。これらの制御が確実に行われるようにすることは、企業データの機密性と整合性を維持するために不可欠です。

3. そのベンダーは、AIモデルと運用について透明性を確保していますか?

生成AIは急速に進化しており、新しいモデルが次々とリリースされています。技術の進歩に伴い、さまざまなAIモデルに関するさまざまな訴訟が複数の国の裁判所で進行しており、新しい法律や規制上の懸念事項が検討されています。AIモデルが異なれば、保護レベル、安全性に対する評判、トレーニングセットの詳細も異なります。

新しいモデルがリリースされるたびに、モデルの詳細、アーキテクチャ、トレーニングデータと方法論、潜在的なバイアスと制限、承認されたユースケースなどに関する重要な情報が公開されます。この透明性により、企業は採用するAIモデルについて十分な情報に基づいた意思決定を下すことができ、潜在的なリスクとメリットを確実に理解することができます。モデルの更新、変更、継続的な評価に関する明確なコミュニケーションも、信頼を維持するために不可欠です。AIモデルとその運用に関する包括的な情報にアクセスできることで、企業は特定のニーズに対するテクノロジーの適合性とセキュリティをより適切に評価できます。

4. そのベンダーは、データとAIモデルに対して適切なレベルの制御を提供していますか?

多くの企業では、セキュリティと適切なガバナンスを確保するために、AIの実装を一元的に制御する必要があります。AIの制御の重要な側面の1つが、AIシステムのオンとオフを切り替える機能です。これにより、社内の特定のグループから段階的にAIを展開することができます。この柔軟性により、組織に負担をかけることなく、既存のワークフローへのAIテクノロジーの展開をコントロールできます。

AIのログ設定の制御も重要な要素です。企業は、機密情報が含まれる可能性があるAIログが安全に管理されていることを確認する必要があります。これには、セキュリティの要件に基づいてログ記録を有効にするか無効にするかを決定すること、保持されるログが厳格なデータ保護基準を満たしていることを確認することが含まれます。

さらに、AIの使用状況とデータガバナンスに関する管理レポートを提供する機能も不可欠です。これらのレポートは、組織全体でAIがどのように使用されているかについてのインサイトを提供し、データガバナンスポリシーを適用し、潜在的な問題を早期に特定するのに役立ちます。堅牢な制御メカニズムにより、企業は監視とコンプライアンスを維持し、進化するAI環境と規制要件に迅速に適応できます。

Box AI: 信頼できるインテリジェンス

企業データで使用するAIモデルを慎重に検討することは当然です。そして、データセキュリティとAIの安全な利用は、Boxのすべての製品にとって重要な要素です。

Box AIでは、最新のAIソリューション(セキュアRAGなど)で企業を強化しながら、機密データの保護に全力で取り組んでいます。Boxは、AIの実践、テクノロジー、ベンダー、データの利用について透明性を保っています。

この取り組みを確かなものにするために、BoxはBox AIの原則を公開し、遵守しています。この原則は、BoxのAIテクノロジーの開発と展開の指針であり、BoxのAIテクノロジーがBoxの価値観とお客様の厳格なセキュリティ要件に合致することを保証します。Box AIなら、データが細心の注意と保全性をもって取り扱われていることを確認した上で、高度なAIツールを安心して利用できます。詳細は、Box AI Trustをご覧ください。

※このブログは Box, Inc 公式ブログ(https://blog.box.com/)2025年1月30日(日本時間1月31日)付投稿の翻訳です。
著者:Ben Kus, Chief Technology Officer at Box
原文リンク : https://blog.box.com/enterprise-grade-ai-security-what-it-takes-trust-ai-your-data

関連コンテンツ

わかる!Box AI

RECENT POST「Box製品情報」の最新記事


Box製品情報

新しい時代へ: AIと自動化をコンテンツに融合する

Box製品情報

Content + AI: インテリジェントワークフローとユーザー体験の変革

Box製品情報

シームレスなコラボレーションを解き放つ: BoxとAtlassian Rovoとの連携

Box製品情報

Box AI Studioのご紹介:お客様独自のビジネスニーズに合わせてAIをカスタマイズ

エンタープライズグレードのAIセキュリティ: AIにデータを託すために必要なこと
Box製品セミナー

RECENT POST 最新記事

ブログ無料購読