Tableau AI und die Einstein-Vertrauensebene

Es ist auch heute noch eine Herausforderung, einer generativen KI Ihre Firmengeheimnisse und Ihre Kundendaten anzuvertrauen und gleichzeitig die Vorteile der generativen KI abzuwägen. Die Einstein-Vertrauensebene ist eine sichere KI-Architektur, die in die Salesforce-Plattform integriert ist. Es handelt sich dabei um eine Reihe von Vereinbarungen, Sicherheitstechnologien sowie Daten- und Datenschutzkontrollen, die dazu dienen, Ihr Unternehmen zu schützen, während Sie generative KI-Lösungen erkunden.

Tableau AI basiert auf der Einstein-Vertrauensebene und übernimmt alle ihre Sicherheits-, Governance- und Vertrauensfunktionen.

Richtlinie zur Null-Datenspeicherung

Ihre Daten werden nicht von LLMs von Drittanbietern gespeichert. Wir arbeiten mit Open AI und Azure Open AI zusammen, um die Richtlinie zur Null-Datenspeicherung durchzusetzen.

  • Es werden keine Daten für das Training des LLM-Modells oder für Produktverbesserungen verwendet.

  • Außerhalb von Tableau werden keine Daten gespeichert.

  • Kein Mensch sieht sich die an das LLM gesendeten Daten an.

Sicheres Abrufen von Daten

Dynamische Verankerung mit sicherem Abrufen von Daten

  • Relevante Informationen aus Ihren Tableau-Daten werden mit dem Prompt zusammengeführt, um Kontext bereitzustellen.

  • Sicherer Datenabruf von Tableau-Daten zur Verankerung der Prompts basierend auf den Berechtigungen des Benutzers, der die Prompts ausführt.

  • Beim sicheren Abrufen von Daten bleiben beim Zusammenführen von Basisdaten aus Ihrer Tableau-Datenquelle alle standardmäßigen rollenbasierten Steuerelemente von Tableau für Benutzerberechtigungen und Sicherheit auf Feldebene erhalten.

Verteidigung von Prompts

Verteidigung von Prompts

  • Systemrichtlinien tragen dazu bei, Halluzinationen einzuschränken und die Wahrscheinlichkeit unbeabsichtigter oder schädlicher Ausgaben des LLM zu verringern.

  • Der LLM führt keine Berechnungen durch, um eine analytische Antwort zu generieren.

  • Systemrichtlinien können für verschiedene Funktionen und Anwendungsfälle generativer KI unterschiedlich sein.

Datenmaskierung

Datenmaskierung

  • Vertrauliche Daten werden erkannt und maskiert, bevor der Prompt an das LLM gesendet wird.

  • Die Datenmaskierung unterstützt mehrere Regionen und Sprachen.

Bewertung der Toxizität

Bewertung der Toxizität

  • Die Einstein-Vertrauensebene bewertet Inhalte hinsichtlich ihrer Toxizität.

  • Toxizitätswerte werden protokolliert und als Teil des Prüfpfads in Data Cloud gespeichert.

AuditAudit

Nur mit Tableau+ verfügbar

  • Eingabeaufforderungen, Antworten und Vertrauenssignale werden protokolliert und in der Data Cloud gespeichert.

  • Feedback kann zur Verbesserung von Vorlagen für Eingabeaufforderungen verwendet werden.

  • Stellt vorgefertigte Berichte und Dashboards für Analysen bereit.

Vielen Dank für Ihr Feedback!Ihr Feedback wurde erfolgreich übermittelt. Vielen Dank.