Tableau AI 和 Einstein 信任层

如今,将公司机密和客户数据托付给生成式 AI 并平衡其利益仍然是一个挑战。Einstein 信任层是一个安全的 AI 架构,内置于 Salesforce 平台。它是一套协议、安全技术以及数据和隐私控制,用于在您探索生成式 AI 解决方案时确保您的公司安全。

Tableau AI 建立在 Einstein 信任层之上,并继承了其所有安全、治理和信任功能。

零数据保留策略

您的数据不会被第三方 LLM 保留。我们与 Open AI 和 Azure Open AI 合作实施零数据保留策略。

  • 没有数据会用于 LLM 模型训练或产品改进。

  • Tableau 之外不会保留任何数据。

  • 没有人会查看发送至 LLM 的数据。

安全数据检索

具有安全数据检索的动态基础

  • Tableau 数据中的相关信息与提示合并以提供上下文。

  • 根据执行提示的用户的权限对 Tableau 数据进行安全数据检索,以确定提示的依据。

  • 在合并来自 Tableau 数据源的基础数据时,安全数据检索会保留所有标准的 Tableau 基于角色的用户权限和字段级安全控制。

及时防御

及时防御

  • 系统策略有助于限制幻觉并降低 LLM 产生意外或有害输出的可能性。

  • LLM 不执行任何计算来生成分析答案。

  • 系统策略可能因不同的生成式 AI 特征和用例而异。

数据屏蔽

数据屏蔽

  • 在将提示发送到 LLM 之前,会检测并屏蔽敏感数据。

  • 数据屏蔽支持多个地区和语言。

毒性评分

毒性评分

  • Einstein 信任层根据毒性对内容进行评分。

  • 毒性评分被记录并存储在 Data Cloud 中作为审计跟踪的一部分。

审计审计

仅适用于 Tableau+

  • 提示、响应和信任信号都被记录并存储在 Data Cloud 中。

  • 反馈可用于改进提示模板。

  • 提供预先构建的报告和仪表板以供分析。

感谢您的反馈!您的反馈已成功提交。谢谢!