Tableau 中的 AI 與信任
附註:隨著平台進行擴充以容納更多 AI 代理程式功能,Einstein Copilot 已更名為 Tableau Agent。從 2024 年 10 月開始,您將看到 Tableau Prep、Tableau Catalog 和 Tableau Cloud Web 製作中的頁面部分、欄位名稱和其他 UI 文字的更新。說明內容和 Trailhead 模組也正在更新,以反映這些變更。
在利用新技術進行創新時,保持資料的安全性非常重要。憑藉 Tableau 中的 AI,我們將信任視為首要價值,努力確保資料安全,同時打造準確且安全的體驗。
Tableau 中的 AI 和您的資料
為確保您的資料安全,Salesforce 已與 OpenAI 等大型語言模型 (LLM) 提供者簽訂協議。組織可以利用生成式 AI 功能,而無需使用其私人資料來訓練 LLM。
地理感知 LLM 請求路由
對於 Tableau Agent,不支援選擇 Salesforce 管理的大型語言模型 (LLM)。相反,Tableau 的開發團隊會根據效能、準確性和成本來測試並選取要使用的最佳模型。
某些模型可能在最靠近 Einstein 生成式 AI 平台執行個體所在的區域不可用。如果所選型號於所在的地區不可用,請求將被路由到所有型號均可用的美國。有關 Tableau Agent 版本中目前使用哪種 LLM 模型的詳情,請聯絡您的 Tableau 客戶經理。
有關地理感知 LLM 請求路由的詳情,請參閱 Salesforce 說明中的Einstein 生成式 AI 平台上的地理感知 LLM 請求路由(連結在新視窗開啟)。
可信任生成式 AI
Salesforce 的 Einstein 生成式 AI 解決方案根據可信任生成式 AI 的五項原則進行設計、開發和交付。
準確性:我們優先考慮模型的準確性、精確度和回收率,並盡可能用詮釋和來源來支援模型輸出。我們建議在與終端使用者共用之前對模型輸出進行人工檢查。
安全性:我們致力於透過業界領先的偵測和緩解技術來偵測和緩解我們產品中所使用模型的偏見、有毒性和有害輸出。
透明度:我們確保我們的模型和功能尊重資料來源,並盡可能以您的資料為基礎。
賦權:我們相信產品應該增強人們的能力,使他們的工作更有效率、更有目標。
永續性:我們努力建置大小合適的模型,優先考慮準確性並減少碳足跡。
要瞭解有關可信任 AI 的更多資訊,請參閱 Salesforce 研究:可信任 AI(連結在新視窗開啟)
執行中的 Einstein 信任層
Tableau 中的 AI 由 Einstein AI 提供支援並繼承 Einstein 信任層和安全性控制。
在 Tableau Pulse,我們以使用範本化的自然語言見解和經確定性統計模型計算的值產生的見解摘要為依據。Tableau Pulse 也以指標層為依據,該指標層可為偵測的見解提供有邊界的安全空間。
Tableau Pulse 使用生成式 AI 來增強並合成由 Tableau 所產生見解的語言。因此,我們能夠用易於理解的語言提供使用者可以快速參與的見解摘要。
要啟用 Tableau 傳回視覺效果、計算或資產描述,首先需要以 Tableau 為資料的基礎。
啟動 Tableau Agent 時,我們會查詢連線到的資料來源並建立摘要,其中包括欄位中繼資料(欄位說明文字、欄位描述、資料角色和資料類型)以及最多 1000 個唯一欄位值(如果資料類型)是字串(文字)。此摘要會傳送到大型語言模型 (LLM) 建立向量內嵌,以便 Tableau Agent 能夠理解資料的內容。摘要建立在 Tableau 內進行,一旦建立向量內嵌,LLM 就會忘記摘要內容資料。
在對話窗格中輸入問題或請求後會出現一個合併提示,該提示由使用者輸入、描述視覺效果目前狀態的中繼資料(Web 製作)、以及歷史內容透過 Einstein 信任層流向 LLM 的對話窗格組成。Einstein 信任層可用於在將個人識別資訊 (PII) 傳送至 LLM 之前對其進行遮罩。使用機器學習和模式匹配技術,提示中的 PII 被取代為通用標記,然後在回應中使用原始值揭開遮罩。有關 PII 遮罩的詳情,請參閱 Salesforce 說明中的 Einstein 信任層區域語言支援(連結在新視窗開啟)。
回應透過 Einstein 信任層流回,以檢查毒性並揭露任何遮罩資料。由於我們與第三方 LLM 提供者實施零資料保留政策,傳送到 LLM 的任何資料都不會保留,並會在傳回回應後刪除。
結果是一個供您檢閱的視覺效果、計算或資產描述。
此類技術確保我們的產品以可信賴的方式採用生成式 AI。同時,您的客戶資料不會用於訓練任何全域模型。
是否想要瞭解更多有關 Einstein 信任層的資訊?請參閱 Salesforce 說明中的Einstein 信任層:為信任而設計(連結在新視窗開啟),或採取 Salesforce Trailhead 上的 Einstein 信任層(連結在新視窗開啟)模組。
審查生成式 AI 輸出
Tableau 中的 AI 是一種工具,可以幫助您快速探索見解、做出更明智的商業決策,並提高工作效率。這項技術並不能取代人的判斷。您對納入資料分析並與使用者共用的任何 LLM 產生的輸出承擔最終責任。
無論是產生在 Tableau Prep 流程中使用的計算、摘要遵循的指標見解、根據資料建立視覺效果,或是為資料資產描述打草稿,始終驗證 LLM 輸出是否準確且適當非常重要。
在將內容納入到流程、視覺效果和分析中之前,請重點關注內容的準確性和安全性。
準確性:生成式 AI 有時會「產生幻覺」-編造不基於事實或現有來源的輸出。在採納任何建議之前,請進行檢查,以確保關鍵詳細資料正確無誤。例如,Tableau 支援建議的計算語法嗎?
偏見和有毒性:由於 AI 是由人建立的,並根據人建立的資料進行訓練,因此它也可能包含針對歷史上邊緣群體的偏見。在極少數情況下,某些輸出可能包含有害語言。請檢查您的輸出,以確保它們適合您的使用者。
若輸出不符合您的標準或業務需求,您不必使用。某些功能可讓您在將回應套用至資料之前直接編輯回應,並且您也可以嘗試重新開始,以產生其他輸出。為了幫助我們改進輸出,請使用可用的「接受」和「反對」按鈕讓我們知道出了什麼問題,並提供意見反應。