Tableau AI と Einstein Trust Layer

生成 AI のメリットとのバランスを取りながら、企業秘密と顧客データを生成 AI に託すことは、現在でも引き続き課題となっています。Einstein Trust Layer は、Salesforce プラットフォームに組み込まれた安全な AI アーキテクチャです。これは、生成 AI ソリューションを探索する際に企業を安全に保つために使用される一連の契約、セキュリティ技術、データおよびプライバシー制御です。

Tableau AI は Einstein Trust Layer 上に構築されており、そのセキュリティ、ガバナンス、信頼機能のすべてを継承します。

ゼロ データ保持

ゼロデータ保持ポリシー

データは、サードパーティの LLM によって保持されません。当社は Open AI および Azure Open AI と提携して、ゼロデータ保持ポリシーを実施しています。

  • LLM モデルのトレーニングや製品の改善にデータが使用されることはありません。

  • Tableau の外部でデータは保持されません。

  • LLM に送信されたデータを人間が見ることはありません。

安全なデータ取得

安全なデータ取得によるダイナミック グラウンディング

  • Tableau データの関連情報がプロンプトとマージされ、コンテキストが提供されます。

  • Tableau データを安全に取得して、プロンプトを実行するユーザーのパーミッションに基づいてプロンプトをグラウンディングします。

  • 安全なデータ取得では、Tableau データ ソースからグラウンディング データをマージするときに、ユーザー パーミションとフィールドレベルのセキュリティについて、Tableau ロールベースのすべての標準的な制御が保持されます。

迅速な防御

迅速な防御

  • システム ポリシーは、ハルシネーションを制限し、LLM から意図しないまたは有害な応答が出力される可能性を減らすのに役立ちます。

  • LLM は、計算を実行して分析応答を生成しません。

  • システム ポリシーは、生成 AI 機能やユース ケースによって異なる場合があります。

データ マスキング

データ マスキング

  • プロンプトを LLM に送信する前に、機密データが検出されてマスキングされます。

  • データ マスキングは複数の地域と言語をサポートします。

データ マスキングの詳細については、Salesforce ヘルプの「Einstein Trust Layer の地域言語サポート」(新しいウィンドウでリンクが開く)および「マスクするデータの選択」(新しいウィンドウでリンクが開く)を参照してください。

有毒性スコアリング

有毒性スコアリング

  • Einstein Trust Layer はコンテンツの有毒性をスコアリングします。

  • 有毒性スコアは、監査証跡の一部としてログに記録されて Data Cloud に保存されます。

監査監査

Tableau+ のみで利用可能

  • プロンプト、応答、信頼シグナルはログに記録され、Data Cloud に保存されます。

  • フィードバックはプロンプト テンプレートの改善に使用できます。

  • 分析用に事前に構築されたレポートとダッシュボードを提供します。

監査証跡の詳細については、Salesforce ヘルプの「Einstein 監査とフィードバック データ」(新しいウィンドウでリンクが開く)を参照してください。

フィードバックをお送りいただき、ありがとうございます。フィードバックは正常に送信されました。ありがとうございます!