KI in Tableau und die Einstein-Vertrauensebene

Ab 14. Oktober 2025 wird Data Cloud unter der neuen Marke „Data 360“ geführt. Während dieser Umstellung kann es vorkommen, dass Sie in unserer Anwendung und Dokumentation noch Verweise auf Data Cloud finden. Auch wenn der Name neu ist, bleiben die Funktionalität und Inhalte unverändert.

Es ist auch heute noch eine Herausforderung, einer generativen KI Ihre Firmengeheimnisse und Ihre Kundendaten anzuvertrauen und gleichzeitig die Vorteile der generativen KI abzuwägen. Die Einstein-Vertrauensebene ist eine sichere KI-Architektur, die in die Salesforce-Plattform integriert ist. Es handelt sich dabei um eine Reihe von Vereinbarungen, Sicherheitstechnologien sowie Daten- und Datenschutzkontrollen, die dazu dienen, Ihr Unternehmen zu schützen, während Sie generative KI-Lösungen erkunden.

KI in Tableau basiert auf der Einstein-Vertrauensebene und übernimmt alle ihre Sicherheits-, Governance- und Vertrauensfunktionen.

Keine Datenspeicherung

Richtlinie zur Null-Datenspeicherung

Ihre Daten werden nicht von LLMs von Drittanbietern gespeichert. Wir arbeiten mit Open AI und Azure Open AI zusammen, um die Richtlinie zur Null-Datenspeicherung durchzusetzen.

  • Es werden keine Daten für das Training des LLM-Modells oder für Produktverbesserungen verwendet.

  • Außerhalb von Tableau werden keine Daten gespeichert.

  • Kein Mensch sieht sich die an das LLM gesendeten Daten an.

Sicheres Abrufen von Daten

Dynamische Verankerung mit sicherem Abrufen von Daten

  • Relevante Informationen aus Ihren Tableau-Daten werden mit dem Prompt zusammengeführt, um Kontext bereitzustellen.

  • Sicherer Datenabruf von Tableau-Daten zur Verankerung der Prompts basierend auf den Berechtigungen des Benutzers, der die Prompts ausführt.

  • Beim sicheren Abrufen von Daten bleiben beim Zusammenführen von Basisdaten aus Ihrer Tableau-Datenquelle alle standardmäßigen rollenbasierten Steuerelemente von Tableau für Benutzerberechtigungen und Sicherheit auf Feldebene erhalten.

Verteidigung von Prompts

Verteidigung von Prompts

  • Systemrichtlinien tragen dazu bei, Halluzinationen einzuschränken und die Wahrscheinlichkeit unbeabsichtigter oder schädlicher Ausgaben des LLM zu verringern.

  • Der LLM führt keine Berechnungen durch, um eine analytische Antwort zu generieren.

  • Systemrichtlinien können für verschiedene Funktionen und Anwendungsfälle generativer KI unterschiedlich sein.

Datenmaskierung

Musterbasierte Datenmaskierung

  • Vertrauliche Daten können erkannt und maskiert werden, bevor der Prompt an das LLM gesendet wird.

  • Die Datenmaskierung unterstützt mehrere Regionen und Sprachen.

Weitere Informationen zur Datenmaskierung finden Sie unter Unterstützung für regionale Sprachen in der Einstein-Vertrauensebene(Link wird in neuem Fenster geöffnet) und Auswahl der zu maskierenden Daten(Link wird in neuem Fenster geöffnet) in der Salesforce-Hilfe.

Bewertung der Toxizität

Bewertung der Toxizität

  • Die Einstein-Vertrauensebene bewertet Inhalte hinsichtlich ihrer Toxizität.

  • Toxizitätswerte werden protokolliert und als Teil des Prüfpfads in Data Cloud gespeichert.

AuditAudit

Nur mit Tableau+ verfügbar

  • Eingabeaufforderungen, Antworten und Vertrauenssignale werden protokolliert und in der Data Cloud gespeichert.

  • Feedback kann zur Verbesserung von Vorlagen für Eingabeaufforderungen verwendet werden.

  • Stellt vorgefertigte Berichte und Dashboards für Analysen bereit.

Weitere Informationen zum Audit Trail finden Sie unter Einstein-Audit und Feedback-Daten(Link wird in neuem Fenster geöffnet) in der Salesforce-Hilfe.

Vielen Dank für Ihr Feedback!Ihr Feedback wurde erfolgreich übermittelt. Vielen Dank.