Einstein 生成式 AI 和信任

在利用新技术进行创新时,保持数据安全非常重要。借助 Tableau AI,我们将信任视为第一大价值,我们努力确保您的数据安全,同时打造准确、安全的体验。

Tableau AI 和您的数据

为了确保您的数据安全,Salesforce 与 OpenAI 等大型语言模型 (LLM) 提供商签订了协议。组织可以利用生成式 AI 功能,而无需使用其私人数据来训练 LLM。

值得信赖的生成式 AI

Salesforce 的 Einstein 生成式 AI 解决方案是根据可信生成式 AI 的五项原则进行设计、开发和交付的。

  • 准确性:我们优先考虑模型的准确性、精确度和召回率,并尽可能用解释和来源来支持模型输出。我们建议在与最终用户共享之前对模型输出进行人工检查。

  • 安全:我们致力于通过行业领先的检测和缓解技术来检测和缓解我们产品中使用的模型的偏差、毒性和有害输出。

  • 诚实:我们确保模型中使用的数据尊重数据来源,并且我们同意使用这些数据。

  • 授权:只要有可能,我们都会设计模型,将人类参与作为工作流程的一部分。

  • 可持续性:我们努力构建大小合适的模型,优先考虑准确性并减少碳足迹。

若要了解有关可信 AI 的详细信息,请参见 Salesforce 研究:可信 AI(链接在新窗口中打开)

Einstein 信任层的实际运用

借助 Tableau Pulse,我们可以使用模板化的自然语言见解和使用确定性统计模型计算的值生成见解摘要。Tableau Pulse 还基于指标层,该指标层为检测见解提供了有界的安全空间。

Tableau Pulse 使用生成式 AI 来增强和综合 Tableau 生成的见解语言。结果是用易于理解的语言总结了见解,用户可以快速参与。

此类技术确保我们的产品以可信的方式采用生成式 AI。同时,您的客户数据不会用于训练任何全局模型。

想要了解有关 Einstein 信任层的详细信息?学习 Salesforce Trailhead 上的 Einstein 信任层(链接在新窗口中打开)模块。

审查生成式 AI 输出

生成式 AI 是一种工具,可以帮助您快速发现见解、做出更明智的业务决策并提高工作效率。这项技术并不能取代人类的判断。您最终对纳入数据分析并与用户共享的任何 LLM 生成的输出负责。

无论是生成在 Tableau Prep 流程中使用的计算语法、总结您所关注的指标的见解,还是根据数据创建可视化项,始终验证 LLM 输出是否准确且适当非常重要。

在将内容合并到流程、可视化项和分析中之前,请重点关注内容的准确性和安全性。

  • 准确性:生成式 AI 有时会产生“幻觉”— 制造出不符合事实或现有来源的输出。在采纳任何建议之前,请检查以确保关键细节正确。例如,Tableau 支持建议的计算语法吗?

  • 偏见和毒性:由于 AI 是由人类创建的,并根据人类创建的数据进行训练,因此它也可能包含针对历史上边缘群体的偏见。极少数情况下,某些输出可能包含有害语言。检查您的输出以确保它们适合您的用户。

如果输出不符合您的标准或业务需求,您不必使用它。某些功能允许您在将响应应用于数据之前直接编辑响应,并且您还可以尝试重新开始以生成另一个输出。为了帮助我们改进输出,请通过提供反馈让我们知道问题所在。

感谢您的反馈!您的反馈已成功提交。谢谢!