Affidare all’intelligenza artificiale generativa i segreti della tua azienda e i dati dei tuoi clienti, bilanciando al tempo stesso i vantaggi di questa tecnologia, è ancora oggi una sfida. Einstein Trust Layer è un’architettura sicura per l’intelligenza artificiale, integrata nella piattaforma Salesforce. Si tratta di un insieme di accordi, tecnologie di sicurezza e controlli sui dati e sulla privacy utilizzati per proteggere la tua azienda mentre esplori le soluzioni di intelligenza artificiale generativa.
Tableau AI si basa su Einstein Trust Layer e ne eredita tutte le funzionalità di sicurezza, governance e attendibilità.
![](Img/trust_layer_zero_data_retention_GAI.png)
| Criteri di nessuna conservazione dei dati I tuoi dati non vengono conservati da LLM di terze parti. Collaboriamo con Open AI e Azure Open AI per applicare criteri di nessuna conservazione dei dati. Nessun dato viene utilizzato per l’addestramento del modello LLM o per il miglioramento del prodotto. Nessun dato viene conservato all’esterno di Tableau. Nessun essere umano esamina i dati inviati al modello LLM.
|
![Recupero sicuro dei dati](Img/trust_layer_secure_data_retrieval_GAI.png) | Grounding dinamico con recupero sicuro dei dati Le informazioni rilevanti dei dati di Tableau vengono unite al prompt per fornire contesto. Recupero sicuro dei dati di Tableau per il grounding del prompt in base alle autorizzazioni dell’utente che esegue il prompt. Il recupero sicuro dei dati mantiene tutti i controlli standard basati sui ruoli di Tableau per le autorizzazioni utente e la sicurezza a livello di campo durante l’unione dei dati di grounding dall’origine dati di Tableau.
|
![Protezione dei prompt](Img/trust_layer_prompt_defense_GAI.png) | Protezione dei prompt I criteri del sistema contribuiscono a limitare le allucinazioni e a ridurre la probabilità di output imprevisti o dannosi da parte del modello LLM. Il modello LLM non esegue alcun calcolo per generare una risposta analitica. I criteri di sistema possono variare a seconda delle funzionalità e dei casi di utilizzo dell’intelligenza artificiale generativa.
|
![Mascheramento dei dati](Img/trust_layer_data_masking_GAI.png) | Mascheramento dei dati |
![Punteggio di tossicità](Img/trust_layer_toxicity_GAI.png) | Punteggio di tossicità |
![Controlli](Img/trust_layer_auditing_GAI.png) | Controllo Disponibile solo con Tableau+ Prompt, risposte e segnali di fiducia vengono registrati e archiviati in Data Cloud. Il feedback può essere utilizzato per migliorare i modelli di prompt. Fornisce dashboard e report predefiniti per l’analisi.
|