KI in Tableau und Vertrauen
Hinweis: Einstein Copilot wurde in Tableau Agent umbenannt, da die Plattform um weitere KI-Agenten-Funktionen ausgebaut wird. Ab Oktober 2024 werden Sie überall in Tableau Prep, Tableau Catalog und der Tableau Cloud-Webdokumenterstellung Aktualisierungen sehen, die an Seitenabschnitten, Feldnamen und anderen Benutzeroberflächentexten vorgenommen wurden. Hilfeinhalte und Trailhead-Module werden ebenfalls aktualisiert, um diese Änderungen widerzuspiegeln.
Es ist wichtig, dass Ihre Daten sicher bleiben, während Sie Innovationen mit neuer Technologie durchführen. Bei der KI in Tableau steht für uns Vertrauen an erster Stelle und wir sind bestrebt, die Sicherheit Ihrer Daten zu gewährleisten und gleichzeitig exakte und sichere Erlebnisse zu schaffen.
KI in Tableau und Ihre Daten
Um die Sicherheit Ihrer Daten zu gewährleisten, hat Salesforce Vereinbarungen mit LLM-Anbietern (Large Language Model) wie etwa OpenAI getroffen. Organisationen können generative KI-Funktionen nutzen, ohne dass ihre privaten Daten für das Training des LLM verwendet werden.
Geo-sensitives LLM-Anforderungsrouting
Mit Tableau Agent wird die Auswahl eines von Salesforce verwalteten Large Language Model (LLM) nicht unterstützt. Stattdessen testet und wählt das Entwicklungsteam bei Tableau auf der Grundlage von Leistung, Genauigkeit und Kosten das beste Modell aus.
Einige Modelle sind möglicherweise in der Region nicht verfügbar, in der Standort Ihrer Plattform-Instanz für generative Einstein-KI liegt. Wenn das ausgewählte Modell in Ihrer Region nicht verfügbar ist, werden die Anfragen in die USA weitergeleitet, wo alle Modelle verfügbar sind. Informationen darüber, welches LLM derzeit in Ihrer Version von Tableau Agent verwendet wird, erhalten Sie von Ihrem Tableau-Ansprechpartner.
Weitere Informationen zum geo-sensitiven LLM-Anforderungsrouting finden Sie unter Geo-sensitives LLM-Anforderungsrouting auf der Einstein Generative AI-Plattform(Link wird in neuem Fenster geöffnet) in der Salesforce-Hilfe.
Vertrauenswürdige generative KI
Die generativen KI-Lösungen von Einstein von Salesforce werden auf der Grundlage von fünf Prinzipien für vertrauenswürdige generative KI entworfen, entwickelt und bereitgestellt.
Genauigkeit: Wir legen bei unseren Modellen Wert auf Genauigkeit, Präzision und Erinnerung und untermauern unsere Modellergebnisse, wann immer möglich, mit Erklärungen und Quellen. Wir empfehlen, die Modellausgabe vor der Weitergabe an Endbenutzer von einem Menschen überprüfen zu lassen.
Sicherheit: Wir arbeiten daran, Verzerrungen, Toxizität und schädliche Ergebnisse von Modellen, die in unseren Produkten verwendet werden, durch branchenführende Erkennungs- und Schadensminderungstechniken zu erkennen und zu mindern.
Transparenz: Wir stellen sicher, dass unsere Modelle und Funktionen die Herkunft der Daten respektieren und, wann immer möglich, auf Ihren Daten basieren.
Ermächtigung: Wir glauben, dass unsere Produkte die Fähigkeiten der Menschen erweitern und ihnen helfen sollten, effizienter und zielstrebiger zu arbeiten.
Nachhaltigkeit: Wir streben danach, Modelle in der richtigen Größe zu bauen, bei denen die Genauigkeit im Vordergrund steht und unser CO2-Fußabdruck reduziert wird.
Weitere Informationen zu vertrauenswürdiger KI finden Sie unter Salesforce-Forschung: Vertrauenswürdige KI(Link wird in neuem Fenster geöffnet)
Die Einstein-Vertrauensebene in Aktion
KI in Tableau basiert auf Einstein AI und verfügt über die Einstein-Vertrauensebene und Sicherheitskontrollen.
Mit Tableau Pulse verankern wir die von uns generierten Erkenntniszusammenfassungen anhand von Vorlagen in natürlicher Sprache gewonnenen Erkenntnissen und Werten, die mithilfe deterministischer statistischer Modelle berechnet werden. Tableau Pulse basiert außerdem auf einer Metrikebene, die einen begrenzten, sicheren Raum für die Erkennung von Erkenntnissen bietet.
Tableau Pulse verwendet generative KI, um die Sprache der von Tableau generierten Erkenntnisse zu verbessern und zu synthetisieren. Das Ergebnis sind zusammengefasste Erkenntnisse in leicht verständlicher Sprache, mit denen sich der Benutzer schnell auseinandersetzen kann.
Damit Tableau Agent eine Visualisierung, eine Berechnung oder eine Asset-Beschreibung zurückgeben kann, müssen wir zunächst Tableau Agent in Ihren Daten verankern.
Wenn Sie Tableau Agent starten, fragen wir die Datenquelle ab, mit der Sie verbunden sind, und erstellen eine Zusammenfassung, die Feldmetadaten (Feldbeschriftungen, Feldbeschreibungen, Datenrollen und Datentypen) und bis zu 1000 eindeutige Feldwerte enthält, wenn der Datentyp eine Zeichenfolge (Text) ist. Diese Zusammenfassung wird an das Large Language Model (LLM) gesendet, um Vektoreinbettungen zu erstellen, damit Tableau Agent den Kontext Ihrer Daten verstehen kann. Die Erstellung der Zusammenfassung erfolgt innerhalb von Tableau, und die Zusammenfassungskontextdaten werden vom LLM vergessen, sobald die Vektoreinbettungen erstellt sind.
Wenn Sie eine Frage oder Anfrage in den Konversationsbereich eingeben, fließt eine kombinierte Eingabeaufforderung, bestehend aus der Benutzereingabe, den Metadaten, die den aktuellen Status der Ansicht (Web-Authoring) beschreiben, und dem historischen Kontext aus dem Konversationsbereich durch die Einstein-Vertrauensebene zum LLM. Mit der Einstein-Vertrauensebene können personenbezogene Daten (PII) maskiert werden, bevor sie an das LLM gesendet werden. PII werden mithilfe von Methoden des maschinellen Lernens und Mustervergleichs in Prompts durch generische Token ersetzt und dann in der Antwort mit den Originalwerten demaskiert. Weitere Informationen zur PII-Maskierung finden Sie unter Unterstützung der Regionalsprache der Einstein-Vertrauensebene(Link wird in neuem Fenster geöffnet) in der Salesforce-Hilfe.
Die Antwort fließt zurück durch die Einstein-Vertrauensebene, um auf Toxizität überprüft zu werden und alle maskierten Daten zu demaskieren. Aufgrund unserer Null-Datenspeicherungsrichtlinie mit unseren externen LLM-Anbietern werden alle an das LLM gesendeten Daten nicht gespeichert und nach dem Senden einer Antwort gelöscht.
Das Ergebnis ist eine Visualisierung, eine Berechnung oder eine Asset-Beschreibung, die Sie überprüfen können.
Techniken wie diese stellen sicher, dass unsere Produkte generative KI auf vertrauenswürdige Weise übernehmen. Gleichzeitig werden Ihre Kundendaten nicht zum Trainieren eines globalen Modells verwendet.
Möchten Sie mehr über die Einstein-Vertrauensebene erfahren? Sehen Sie sich Einstein-Vertrauensebene: Entwickelt für Vertrauen(Link wird in neuem Fenster geöffnet) in der Salesforce-Hilfe an oder nutzen Sie das Modul Einstein-Vertrauensebene(Link wird in neuem Fenster geöffnet) auf Salesforce Trailhead.
Überprüfung generativer KI-Ergebnisse
Die KI in Tableau ist ein Tool, mit dem Sie schnell Erkenntnisse gewinnen, intelligentere Geschäftsentscheidungen treffen und produktiver arbeiten können. Diese Technologie ist kein Ersatz für menschliches Urteilsvermögen. Letztendlich sind Sie für alle LLM-generierten Ausgaben verantwortlich, die Sie in Ihre Datenanalyse integrieren und mit Ihren Benutzern teilen.
Unabhängig davon, ob es darum geht, eine Berechnungssyntax für die Verwendung in einem Tableau Prep-Schema zu generieren, Erkenntnisse für von Ihnen verfolgte Metriken zusammenzufassen oder Visualisierungen für Sie aus Ihren Daten zu erstellen oder Beschreibungen für Ihre Daten-Assets entwerfen, ist es wichtig, immer zu überprüfen, ob die LLM-Ausgabe korrekt und angemessen ist.
Konzentrieren Sie sich auf die Genauigkeit und Sicherheit der Inhalte, bevor Sie sie in Ihre Abläufe, Visualisierungen und Analysen integrieren.
Genauigkeit: Generative KI kann manchmal "halluzinieren" – also Ergebnisse erzeugen, die nicht auf Fakten oder vorhandenen Quellen basieren. Bevor Sie Vorschläge einarbeiten, prüfen Sie, ob die wesentlichen Angaben korrekt sind. Wird beispielsweise die vorgeschlagene Syntax für eine Berechnung von Tableau unterstützt?
Voreingenommenheit und Toxizität: Da KI von Menschen erstellt und auf von Menschen erstellten Daten trainiert wird, kann sie auch Vorurteile gegenüber historisch marginalisierten Gruppen enthalten. In seltenen Fällen können einige Ausgaben schädliche Sprache enthalten. Überprüfen Sie Ihre Ausgaben, um sicherzustellen, dass sie für Ihre Benutzer geeignet sind.
Wenn die Ausgabe nicht Ihren Standards oder Geschäftsanforderungen entspricht, müssen Sie sie nicht verwenden. Mit einigen Funktionen können Sie die Antwort direkt bearbeiten, bevor Sie sie auf Ihre Daten anwenden. Sie können auch versuchen, von vorne zu beginnen, um eine weitere Ausgabe zu generieren. Helfen Sie uns, das Ergebnis zu verbessern, und teilen Sie uns mithilfe der Schaltflächen „Daumen hoch“ und „Daumen runter“ (sofern verfügbar) mit, was falsch war, und geben Sie uns Feedback.