Es ist auch heute noch eine Herausforderung, einer generativen KI Ihre Firmengeheimnisse und Ihre Kundendaten anzuvertrauen und gleichzeitig die Vorteile der generativen KI abzuwägen. Die Einstein-Vertrauensebene ist eine sichere KI-Architektur, die in die Salesforce-Plattform integriert ist. Es handelt sich dabei um eine Reihe von Vereinbarungen, Sicherheitstechnologien sowie Daten- und Datenschutzkontrollen, die dazu dienen, Ihr Unternehmen zu schützen, während Sie generative KI-Lösungen erkunden.
Tableau AI basiert auf der Einstein-Vertrauensebene und übernimmt alle ihre Sicherheits-, Governance- und Vertrauensfunktionen.
![](Img/trust_layer_zero_data_retention_GAI.png)
| Richtlinie zur Null-Datenspeicherung Ihre Daten werden nicht von LLMs von Drittanbietern gespeichert. Wir arbeiten mit Open AI und Azure Open AI zusammen, um die Richtlinie zur Null-Datenspeicherung durchzusetzen. Es werden keine Daten für das Training des LLM-Modells oder für Produktverbesserungen verwendet. Außerhalb von Tableau werden keine Daten gespeichert. Kein Mensch sieht sich die an das LLM gesendeten Daten an.
|
![Sicheres Abrufen von Daten](Img/trust_layer_secure_data_retrieval_GAI.png) | Dynamische Verankerung mit sicherem Abrufen von Daten Relevante Informationen aus Ihren Tableau-Daten werden mit dem Prompt zusammengeführt, um Kontext bereitzustellen. Sicherer Datenabruf von Tableau-Daten zur Verankerung der Prompts basierend auf den Berechtigungen des Benutzers, der die Prompts ausführt. Beim sicheren Abrufen von Daten bleiben beim Zusammenführen von Basisdaten aus Ihrer Tableau-Datenquelle alle standardmäßigen rollenbasierten Steuerelemente von Tableau für Benutzerberechtigungen und Sicherheit auf Feldebene erhalten.
|
![Verteidigung von Prompts](Img/trust_layer_prompt_defense_GAI.png) | Verteidigung von Prompts Systemrichtlinien tragen dazu bei, Halluzinationen einzuschränken und die Wahrscheinlichkeit unbeabsichtigter oder schädlicher Ausgaben des LLM zu verringern. Der LLM führt keine Berechnungen durch, um eine analytische Antwort zu generieren. Systemrichtlinien können für verschiedene Funktionen und Anwendungsfälle generativer KI unterschiedlich sein.
|
![Datenmaskierung](Img/trust_layer_data_masking_GAI.png) | Datenmaskierung Vertrauliche Daten werden erkannt und maskiert, bevor der Prompt an das LLM gesendet wird. Die Datenmaskierung unterstützt mehrere Regionen und Sprachen.
|
![Bewertung der Toxizität](Img/trust_layer_toxicity_GAI.png) | Bewertung der Toxizität |
![Audit](Img/trust_layer_auditing_GAI.png) | Audit Nur mit Tableau+ verfügbar Eingabeaufforderungen, Antworten und Vertrauenssignale werden protokolliert und in der Data Cloud gespeichert. Feedback kann zur Verbesserung von Vorlagen für Eingabeaufforderungen verwendet werden. Stellt vorgefertigte Berichte und Dashboards für Analysen bereit.
|