Tableau AI と信頼

新しいテクノロジーでイノベーションを起こす間、データを安全に保つことが重要です。Tableau AI では、信頼を第一の価値と位置づけ、正確で安全なエクスペリエンスを提供しながら、お客様のデータの安全性を確保するよう努めています。

Tableau AI とお客様のデータ

お客様のデータを安全に保つために、Salesforce は OpenAI などの大規模言語モデル (LLM) プロバイダーと契約を結んでいます。お客様の組織は、ご自身のプライベート データを LLM の学習に使用することなく、生成 AI の機能を活用できます。

信頼できる生成 AI

Salesforce の Einstein Generative AI ソリューションは、信頼できる生成 AI のための 5 つの原則に基づいて設計、開発、提供されています。

  • 正確さ: モデルの正確さ、精度、再現性を優先し、可能な限りモデルの出力を説明と情報源で裏付けます。エンド ユーザーと共有する前に、モデルの出力を人間がチェックすることをお勧めします。

  • 安全性: 業界をリードする技術を通じて、製品で使用しているモデルからのバイアス、毒性、有害な出力を検出して軽減するよう取り組んでいます。

  • 透明性: モデルと機能は、可能な限りデータの出所を尊重し、お客様のデータに基づいていることを保証します。

  • エンパワーメント: 当社の製品は人々の能力を高め、仕事の効率と目的意識を高めるものであるべきだと考えています。

  • 持続可能性: 私たちは、正確さを優先し、二酸化炭素排出量を削減する適切なサイズのモデルの構築するように努めています。

信頼できる AI の詳細については、「Salesforce リサーチ: 信頼できる AI」(新しいウィンドウでリンクが開く)を参照してください。

Einstein Trust Layer の動作

Tableau AI は Einstein AI を搭載しており、Einstein Trust Layer とセキュリティ コントロールを継承しています。

Tableau Pulse でのインサイトの要約は、テンプレート化された自然言語のインサイトと、決定論的な統計モデルを使用して計算された値を基にして生成されたものです。Tableau Pulse は、制限された安全な空間でインサイトを検出できる、メトリクス レイヤーも基にしています。

Tableau Pulse は生成 AI を使用して、Tableau によって生成されたインサイトの言語を強化および合成します。その結果、ユーザーがすぐに利用できるわかりやすい言葉でインサイトが要約されます。

Einstein Copilot for Tableau が Viz、計算、またはアセットの説明を返すようにするには、まず Einstein Copilot をデータに組み込む必要があります。

Einstein Copilot を起動すると、接続しているデータ ソースがクエリされ、フィールド名、説明、データ型、フィールドごとに最初の 1000 個の一意のフィールド値 (数値以外) の概要が作成されます。この要約は、Einstein Copilot がデータのコンテキストを理解できるように、Large Language Model (LLM) に送信されてベクトルの埋め込みが作成されます。要約の作成は Tableau 内で行われ、ベクトルの埋め込みが作成されるとすぐに、要約のコンテキスト データは LLM によって忘れられます。

Einstein Copilot の会話ペインに質問やリクエストを入力すると、ユーザーの入力内容、Viz (Web 作成) の現在の状態を説明するメタデータ、会話ペインでのこれまでの文脈から構成される複合プロンプトが、Einstein Trust Layer を介して LLM に流れます。機密情報は検出され、コンテキストを維持するためにプレースホルダー テキストでマスクされます。PII マスキングの詳細については、Salesforce ヘルプの「Einstein Trust Layer リージョン言語サポート」(新しいウィンドウでリンクが開く)を参照してください。

応答は Einstein Trust Layer を経由して戻り、有害性がチェックされ、マスクされたデータのマスクが解除されます。サードパーティの LLM プロバイダーとの間で実施されているゼロ データ保持ポリシーにより、LLM に送信されたデータは保持されず、応答が返された後に削除されます。

その結果、Viz、計算、アセットの説明が作成され、レビューできるようになります。

このような技術により、当社の製品は信頼できる方法で生成 AI を採用しています。同時に、お客様のデータはグローバル モデルの学習には一切に使用されません。

Einstein Trust Layer について詳しく知るには、Salesforce ヘルプの「Einstein Trust Layer: 信頼のために設計」(新しいウィンドウでリンクが開く)を参照するか、Salesforce Trailhead の「Einstein Trust Layer」(新しいウィンドウでリンクが開く)モジュールを受講してください。

生成 AI 出力のレビュー

Tableau AI は、インサイトを迅速に見いだし、ビジネス上の意思決定をより賢明に行い、生産性を向上させるのに役立つツールです。このテクノロジーは人間の判断に代わるものではありません。LLM によって生成された出力は、データ分析に組み込んだり、組織のユーザーと共有したりしますが、この出力に対して最終的に責任を負うのはあなたです。

Tableau Prep フローで使用する計算の生成、追跡するメトリクスのインサイトの要約、データからのビジュアライゼーションの作成、データ アセットの説明の下書きなど、LLM の出力が正確で適切であることを常に検証することが重要です。

コンテンツをフロー、ビジュアライゼーション、分析に組み込む前に、コンテンツの正確性と安全性に注意してください。

  • 正確さ: 生成 AI は、事実や既存の情報源に基づいていない出力を作り上げてしまう「幻覚」を起こすことがあります。提示されたことを取り入れる前に、重要な点が間違っていないか確認してください。たとえば、提示された計算構文は Tableau でサポートされているでしょうか。

  • バイアスと有害性: AI は人間が造ったものであり、人間が作成したデータに基づいて学習するため、歴史的に疎外されたグループに対する偏見が含まれる可能性もあります。まれに、一部の出力に有害な表現が含まれる場合があります。出力をチェックして、ユーザーにとって適切であるか確認してください。

出力が標準やビジネス ニーズを満たしていない場合は、それを使用する必要はありません。一部の機能では、回答をデータに適用する前に直接編集でき、最初からやり直して別の出力を生成することもできます。出力を改善するために、サムアップ ボタンやサムダウン ボタンを使って、何が間違っていたかを知らせください。

フィードバックをお送りいただき、ありがとうございます。フィードバックは正常に送信されました。ありがとうございます!