Tableau 中的 AI 和信任

注意:随着平台扩展以容纳更多 AI 代理功能,Einstein Copilot 已更名为 Tableau Agent。从 2024 年 10 月开始,您将看到 Tableau Prep、Tableau Catalog 和 Tableau Cloud Web 制作中的页面部分、字段名称和其他 UI 文本的更新。帮助内容和 Trailhead 模块也正在更新以反映这些变化。

在利用新技术进行创新时,保持数据安全非常重要。借助 Tableau 中的 AI,我们将信任视为第一大价值,我们努力确保您的数据安全,同时打造准确、安全的体验。

Tableau 中的 AI 和您的数据

为了确保您的数据安全,Salesforce 与 OpenAI 等大型语言模型 (LLM) 提供商签订了协议。组织可以利用生成式 AI 功能,而无需使用其私人数据来训练 LLM。

地理感知 LLM 请求路由

使用 Tableau Agent,不支持选择 Salesforce 管理的大型语言模型 (LLM)。相反,Tableau 的开发团队会根据性能、准确性和成本测试并选择最佳模型。

某些模型可能无法在距离您的 Einstein 生成式 AI 平台实例最近的区域使用。如果您所在地区没有所选模型,则请求将被路由到所有模型均可用的美国。有关您的 Tableau Agent 版本中当前正在使用哪种 LLM 模型的信息,请联系您的 Tableau 客户主管。

有关地理感知 LLM 请求路由的详细信息,请参见 Salesforce 帮助中的 Einstein 生成式 AI 平台上的地理感知 LLM 请求路由(链接在新窗口中打开)

值得信赖的生成式 AI

Salesforce 的 Einstein 生成式 AI 解决方案是根据可信生成式 AI 的五项原则进行设计、开发和交付的。

  • 准确性:我们优先考虑模型的准确性、精确度和召回率,并尽可能用解释和来源来支持模型输出。我们建议在与最终用户共享之前对模型输出进行人工检查。

  • 安全:我们致力于通过行业领先的检测和缓解技术来检测和缓解我们产品中使用的模型的偏差、毒性和有害输出。

  • 透明度:我们确保我们的模型和特征尊重数据来源并尽可能以您的数据为基础。

  • 授权:我们相信我们的产品应该增强人们的能力,使他们的工作更有效率、更有目的性。

  • 可持续性:我们努力构建大小合适的模型,优先考虑准确性并减少碳足迹。

若要了解有关可信 AI 的详细信息,请参见 Salesforce 研究:可信 AI(链接在新窗口中打开)

Einstein 信任层的实际运用

Tableau 中的 AI 由 Einstein AI 提供支持,并继承了 Einstein 信任层和安全控制措施。

借助 Tableau Pulse,我们可以使用模板化的自然语言见解和使用确定性统计模型计算的值生成见解摘要。Tableau Pulse 还基于指标层,该指标层为检测见解提供了有界的安全空间。

Tableau Pulse 使用生成式 AI 来增强和综合 Tableau 生成的见解语言。结果是用易于理解的语言总结了见解,用户可以快速参与。

启用 Tableau Agent 以返回一个可视化项、一个计算或者一个资产描述,我们首先需要将 Tableau Agent 建立在您的数据之上。

当您启动 Tableau Agent 时,我们会查询您所连接的数据源并创建一个摘要,其中包含字段元数据(字段标题、字段描述、数据角色和数据类型)以及最多 1000 个唯一字段值(如果数据类型为字符串(文本))。该摘要将发送到大型语言模型 (LLM) 以创建向量嵌入,以便 Tableau Agent 可以理解数据的上下文。摘要创建发生在 Tableau 中,一旦创建向量嵌入,摘要上下文数据就会被 LLM 忘记。

当您在对话窗格中输入问题或请求时,由用户输入、描述可视化项(Web 制作)当前状态的元数据和对话窗格中的历史上下文组成的组合提示通过 Einstein 信任层流向 LLM。Einstein 信任层可用于在将个人身份信息 (PII) 发送到 LLM 之前对其进行屏蔽。使用机器学习和模式匹配技术,提示中的 PII 会替换为通用标记,然后在响应中使用原始值解除屏蔽。有关 PII 屏蔽的详细信息,请参见 Salesforce 帮助中的Einstein 信任层区域语言支持(链接在新窗口中打开)

响应通过 Einstein 信任层回流,以检查毒性并揭露任何被屏蔽的数据。由于我们与第三方 LLM 提供商实施了零数据保留政策,因此发送到 LLM 的任何数据都不会保留,并且会在发回响应后被删除。

结果是可视化项、计算或资产描述,供您审核。

此类技术确保我们的产品以可信的方式采用生成式 AI。同时,您的客户数据不会用于训练任何全局模型。

想要了解有关 Einstein 信任层的详细信息?请参见 Salesforce 帮助中的 Einstein 信任层:为信任而设计(链接在新窗口中打开),或使用 Salesforce Trailhead 上的 Einstein 信任层(链接在新窗口中打开)模块。

审查生成式 AI 输出

Tableau 中的 AI 是一种工具,可以帮助您快速发现见解、做出更明智的业务决策并提高工作效率。这项技术并不能取代人类的判断。您最终对纳入数据分析并与用户共享的任何 LLM 生成的输出负责。

无论是生成在 Tableau Prep 流程中使用的计算总结您所关注的指标的见解、根据数据创建可视化项,还是为您的数据资产起草描述,始终验证 LLM 输出是否准确且适当都非常重要。

在将内容合并到流程、可视化项和分析中之前,请重点关注内容的准确性和安全性。

  • 准确性:生成式 AI 有时会产生“幻觉”— 制造出不符合事实或现有来源的输出。在采纳任何建议之前,请检查以确保关键细节正确。例如,Tableau 支持建议的计算语法吗?

  • 偏见和毒性:由于 AI 是由人类创建的,并根据人类创建的数据进行训练,因此它也可能包含针对历史上边缘群体的偏见。极少数情况下,某些输出可能包含有害语言。检查您的输出以确保它们适合您的用户。

如果输出不符合您的标准或业务需求,您不必使用它。某些功能允许您在将响应应用于数据之前直接编辑响应,并且您还可以尝试重新开始以生成另一个输出。为了帮助我们改进输出,请使用“拇指朝上”和“拇指朝下”按钮(如果可用)让我们知道问题所在,并提供反馈。