Einstein 生成式 AI 與信任

在利用新技術進行創新時,保持資料的安全性非常重要。在 Tableau AI 中,我們將信任視為首要價值,努力確保您的資料安全,同時打造準確且安全的體驗。

Tableau AI 和您的資料

為確保您的資料安全,Salesforce 已與 OpenAI 等大型語言模型 (LLM) 提供者簽訂協議。組織可以利用生成式 AI 功能,而無需使用其私人資料來訓練 LLM。

可信任生成式 AI

Salesforce 的 Einstein 生成式 AI 解決方案根據可信任生成式 AI 的五項原則進行設計、開發和交付。

  • 準確性:我們優先考慮模型的準確性、精確度和回收率,並盡可能用詮釋和來源來支援模型輸出。我們建議在與終端使用者共用之前對模型輸出進行人工檢查。

  • 安全性:我們致力於透過業界領先的偵測和緩解技術來偵測和緩解我們產品中所使用模型的偏見、有毒性和有害輸出。

  • 誠信:我們確保模型中使用的資料尊重資料出處,並且我們同意使用這些資料。

  • 授權賦能:在可能的情況下,我們在設計模型時會將人的參與作為工作流程的一部分。

  • 永續性:我們努力建置大小合適的模型,優先考慮準確性並減少碳足跡。

要瞭解有關可信任 AI 的更多資訊,請參閱 Salesforce 研究:可信任 AI(連結在新視窗開啟)

審查生成式 AI 輸出

生成式 AI 是一種工具,可以幫助您快速探索見解、做出更明智的商業決策,並提高工作效率。這項技術並不能取代人的判斷。您對納入資料分析並與使用者共用的任何 LLM 產生的輸出承擔最終責任。

無論是產生要在 Tableau Prep 流程中使用的計算語法、總結您所追蹤的指標的見解,還是根據資料建立視覺效果,始終驗證 LLM 輸出是否準確且適當非常重要。

在將內容納入到流程、視覺效果和分析中之前,請重點關注內容的準確性和安全性。

  • 準確性:生成式 AI 有時會「產生幻覺」-編造不基於事實或現有來源的輸出。在採納任何建議之前,請進行檢查,以確保關鍵詳細資料正確無誤。例如,Tableau 支援建議的計算語法嗎?

  • 偏見和有毒性:由於 AI 是由人建立的,並根據人建立的資料進行訓練,因此它也可能包含針對歷史上邊緣群體的偏見。在極少數情況下,某些輸出可能包含有害語言。請檢查您的輸出,以確保它們適合您的使用者。

若輸出不符合您的標準或業務需求,您不必使用。某些功能可讓您在將回應套用至資料之前直接編輯回應,並且您也可以嘗試重新開始,以產生其他輸出。為幫助我們改進輸出,請透過提供意見反應讓我們知道問題所在。

感謝您的意見反應!已成功提交您的意見回饋。謝謝!