Einstein 信任層

如今,將公司機密與客戶資料託付給生成式 AI,同時平衡生成式 AI 的優勢仍然是一個挑戰。Einstein Trust Layer 是內建於 Salesforce 平台的安全 AI 架構。它包括一組協定、安全技術以及資料和隱私控制,用於在探索生成式 AI 解決方案時確保公司安全。

Tableau AI 內建於 Einstein Trust Layer 頂層,並繼承了其所有安全性、管理與信任功能。

零資料存留原則

協力廠商 LLM 不會存留您的資料。我們與 Open AI 和 Azure Open AI 合作執行零資料存留原則。

  • 沒有資料會用於 LLM 模型訓練或產品改進。

  • 不會在 Tableau 之外存留任何資料。

  • 沒有人會查看傳送給 LLM 的資料。

安全資料擷取

配備安全資料擷取功能的動態接地

  • Tableau 資料中的相關資訊將與提示合併以提供上下文。

  • 根據執行提示的使用者的權限對 Tableau 資料進行安全資料擷取,以便為提示提供基礎。

  • 合併來自 Tableau 資料來源的基礎資料後,安全資料擷取會保留所有標準 Tableau 基於角色的使用者權限和欄位層級安全控制。

及時防禦

及時防禦

  • 系統原則有助於限制幻覺並降低 LLM 產生意外或有害輸出的可能性。

  • LLM 不會執行任何計算已產生分析答案。

  • 不同的生成式 AI 功能與用例的系統原則可能會有所不同。

資料遮罩

資料遮罩

  • 向 LLM 傳送提示前會偵測並遮罩敏感資料。

  • 資料遮罩支援多個區域和語言。

毒性評分

毒性評分

  • Einstein Trust Layer 對內容的毒性進行評分。

  • 記錄毒性分數並儲存在資料雲端中作為稽核記錄的一部分。

感謝您的意見反應!已成功提交您的意見回饋。謝謝!