Tableau AI und Vertrauen

Es ist wichtig, dass Ihre Daten sicher bleiben, während Sie Innovationen mit neuer Technologie durchführen. Bei Tableau AI steht für uns Vertrauen an erster Stelle und wir sind bestrebt, die Sicherheit Ihrer Daten zu gewährleisten und gleichzeitig exakte und sichere Erlebnisse zu schaffen.

Tableau AI und Ihre Daten

Um die Sicherheit Ihrer Daten zu gewährleisten, hat Salesforce Vereinbarungen mit LLM-Anbietern (Large Language Model) wie etwa OpenAI getroffen. Organisationen können generative KI-Funktionen nutzen, ohne dass ihre privaten Daten für das Training des LLM verwendet werden.

Vertrauenswürdige generative KI

Die generativen KI-Lösungen von Einstein von Salesforce werden auf der Grundlage von fünf Prinzipien für vertrauenswürdige generative KI entworfen, entwickelt und bereitgestellt.

  • Genauigkeit: Wir legen bei unseren Modellen Wert auf Genauigkeit, Präzision und Erinnerung und untermauern unsere Modellergebnisse, wann immer möglich, mit Erklärungen und Quellen. Wir empfehlen, die Modellausgabe vor der Weitergabe an Endbenutzer von einem Menschen überprüfen zu lassen.

  • Sicherheit: Wir arbeiten daran, Verzerrungen, Toxizität und schädliche Ergebnisse von Modellen, die in unseren Produkten verwendet werden, durch branchenführende Erkennungs- und Schadensminderungstechniken zu erkennen und zu mindern.

  • Transparenz: Wir stellen sicher, dass unsere Modelle und Funktionen die Herkunft der Daten respektieren und, wann immer möglich, auf Ihren Daten basieren.

  • Ermächtigung: Wir glauben, dass unsere Produkte die Fähigkeiten der Menschen erweitern und ihnen helfen sollten, effizienter und zielstrebiger zu arbeiten.

  • Nachhaltigkeit: Wir streben danach, Modelle in der richtigen Größe zu bauen, bei denen die Genauigkeit im Vordergrund steht und unser CO2-Fußabdruck reduziert wird.

Weitere Informationen zu vertrauenswürdiger KI finden Sie unter Salesforce-Forschung: Vertrauenswürdige KI(Link wird in neuem Fenster geöffnet)

Die Einstein-Vertrauensebene in Aktion

Tableau AI basiert auf Einstein AI und verfügt über die Einstein-Vertrauensebene und Sicherheitskontrollen.

Mit Tableau Pulse verankern wir die von uns generierten Erkenntniszusammenfassungen anhand von Vorlagen in natürlicher Sprache gewonnenen Erkenntnissen und Werten, die mithilfe deterministischer statistischer Modelle berechnet werden. Tableau Pulse basiert außerdem auf einer Metrikebene, die einen begrenzten, sicheren Raum für die Erkennung von Erkenntnissen bietet.

Tableau Pulse verwendet generative KI, um die Sprache der von Tableau generierten Erkenntnisse zu verbessern und zu synthetisieren. Das Ergebnis sind zusammengefasste Erkenntnisse in leicht verständlicher Sprache, mit denen sich der Benutzer schnell auseinandersetzen kann.

Damit Einstein Copilot für Tableau eine Visualisierung, eine Berechnung oder eine Asset-Beschreibung zurückgeben kann, müssen wir zunächst Einstein Copilot in Ihren Daten verankern.

Wenn Sie Einstein Copilot starten, fragen wir die Datenquelle ab, mit der Sie verbunden sind, und erstellen eine Zusammenfassung der Feldnamen, Beschreibungen, Datentypen und der ersten 1000 eindeutigen Feldwerte (nicht numerisch) pro Feld. Diese Zusammenfassung wird an das Large Language Model (LLM) gesendet, um Vektoreinbettungen zu erstellen, damit Einstein Copilot den Kontext Ihrer Daten verstehen kann. Die Erstellung der Zusammenfassung erfolgt innerhalb von Tableau, und die Zusammenfassungskontextdaten werden vom LLM vergessen, sobald die Vektoreinbettungen erstellt sind.

Wenn Sie eine Frage oder Anfrage in den Konversationsbereich in Einstein Copilot eingeben, fließt eine kombinierte Eingabeaufforderung, bestehend aus der Benutzereingabe, den Metadaten, die den aktuellen Status der Ansicht (Web-Authoring) beschreiben, und dem historischen Kontext aus dem Konversationsbereich durch die Einstein-Vertrauensebene zum LLM. Vertrauliche Informationen werden erkannt und mit Platzhaltertext maskiert, um den Kontext beizubehalten. Weitere Informationen zur PII-Maskierung finden Sie unter Unterstützung der Regionalsprache der Einstein-Vertrauensebene(Link wird in neuem Fenster geöffnet) in der Salesforce-Hilfe.

Die Antwort fließt zurück durch die Einstein-Vertrauensebene, um auf Toxizität überprüft zu werden und alle maskierten Daten zu demaskieren. Aufgrund unserer Null-Datenspeicherungsrichtlinie mit unseren externen LLM-Anbietern werden alle an das LLM gesendeten Daten nicht gespeichert und nach dem Senden einer Antwort gelöscht.

Das Ergebnis ist eine Visualisierung, eine Berechnung oder eine Asset-Beschreibung, die Sie überprüfen können.

Techniken wie diese stellen sicher, dass unsere Produkte generative KI auf vertrauenswürdige Weise übernehmen. Gleichzeitig werden Ihre Kundendaten nicht zum Trainieren eines globalen Modells verwendet.

Möchten Sie mehr über die Einstein-Vertrauensebene erfahren? Sehen Sie sich Einstein-Vertrauensebene: Entwickelt für Vertrauen(Link wird in neuem Fenster geöffnet) in der Salesforce-Hilfe an oder nutzen Sie das Modul Einstein-Vertrauensebene(Link wird in neuem Fenster geöffnet) auf Salesforce Trailhead.

Überprüfung generativer KI-Ergebnisse

Tableau AI ist ein Tool, mit dem Sie schnell Erkenntnisse gewinnen, intelligentere Geschäftsentscheidungen treffen und produktiver arbeiten können. Diese Technologie ist kein Ersatz für menschliches Urteilsvermögen. Letztendlich sind Sie für alle LLM-generierten Ausgaben verantwortlich, die Sie in Ihre Datenanalyse integrieren und mit Ihren Benutzern teilen.

Unabhängig davon, ob es darum geht, eine Berechnungssyntax für die Verwendung in einem Tableau Prep-Schema zu generieren, Erkenntnisse für von Ihnen verfolgte Metriken zusammenzufassen oder Visualisierungen für Sie aus Ihren Daten zu erstellen oder Beschreibungen für Ihre Daten-Assets entwerfen, ist es wichtig, immer zu überprüfen, ob die LLM-Ausgabe korrekt und angemessen ist.

Konzentrieren Sie sich auf die Genauigkeit und Sicherheit der Inhalte, bevor Sie sie in Ihre Abläufe, Visualisierungen und Analysen integrieren.

  • Genauigkeit: Generative KI kann manchmal "halluzinieren" – also Ergebnisse erzeugen, die nicht auf Fakten oder vorhandenen Quellen basieren. Bevor Sie Vorschläge einarbeiten, prüfen Sie, ob die wesentlichen Angaben korrekt sind. Wird beispielsweise die vorgeschlagene Syntax für eine Berechnung von Tableau unterstützt?

  • Voreingenommenheit und Toxizität: Da KI von Menschen erstellt und auf von Menschen erstellten Daten trainiert wird, kann sie auch Vorurteile gegenüber historisch marginalisierten Gruppen enthalten. In seltenen Fällen können einige Ausgaben schädliche Sprache enthalten. Überprüfen Sie Ihre Ausgaben, um sicherzustellen, dass sie für Ihre Benutzer geeignet sind.

Wenn die Ausgabe nicht Ihren Standards oder Geschäftsanforderungen entspricht, müssen Sie sie nicht verwenden. Mit einigen Funktionen können Sie die Antwort direkt bearbeiten, bevor Sie sie auf Ihre Daten anwenden. Sie können auch versuchen, von vorne zu beginnen, um eine weitere Ausgabe zu generieren. Helfen Sie uns, das Ergebnis zu verbessern, und teilen Sie uns mithilfe der Schaltflächen „Daumen hoch“ und „Daumen runter“ (sofern verfügbar) mit, was falsch war, und geben Sie uns Feedback.

Vielen Dank für Ihr Feedback!Ihr Feedback wurde erfolgreich übermittelt. Vielen Dank.