Einstein Trust Layer

Affidare all’intelligenza artificiale generativa i segreti della tua azienda e i dati dei tuoi clienti, bilanciando al tempo stesso i vantaggi di questa tecnologia, è ancora oggi una sfida. Einstein Trust Layer è un’architettura sicura per l’intelligenza artificiale, integrata nella piattaforma Salesforce. Si tratta di un insieme di accordi, tecnologie di sicurezza e controlli sui dati e sulla privacy utilizzati per proteggere la tua azienda mentre esplori le soluzioni di intelligenza artificiale generativa.

Tableau AI si basa su Einstein Trust Layer e ne eredita tutte le funzionalità di sicurezza, governance e attendibilità.

Criteri di nessuna conservazione dei dati

I tuoi dati non vengono conservati da LLM di terze parti. Collaboriamo con Open AI e Azure Open AI per applicare criteri di nessuna conservazione dei dati.

  • Nessun dato viene utilizzato per l’addestramento del modello LLM o per il miglioramento del prodotto.

  • Nessun dato viene conservato all’esterno di Tableau.

  • Nessun essere umano esamina i dati inviati al modello LLM.

Recupero sicuro dei dati

Grounding dinamico con recupero sicuro dei dati

  • Le informazioni rilevanti dei dati di Tableau vengono unite al prompt per fornire contesto.

  • Recupero sicuro dei dati di Tableau per il grounding del prompt in base alle autorizzazioni dell’utente che esegue il prompt.

  • Il recupero sicuro dei dati mantiene tutti i controlli standard basati sui ruoli di Tableau per le autorizzazioni utente e la sicurezza a livello di campo durante l’unione dei dati di grounding dall’origine dati di Tableau.

Protezione dei prompt

Protezione dei prompt

  • I criteri del sistema contribuiscono a limitare le allucinazioni e a ridurre la probabilità di output imprevisti o dannosi da parte del modello LLM.

  • Il modello LLM non esegue alcun calcolo per generare una risposta analitica.

  • I criteri di sistema possono variare a seconda delle funzionalità e dei casi di utilizzo dell’intelligenza artificiale generativa.

Mascheramento dei dati

Mascheramento dei dati

  • I dati sensibili vengono rilevati e mascherati prima di inviare il prompt al modello LLM.

  • Il mascheramento dei dati supporta più aree geografiche e lingue.

Punteggio di tossicità

Punteggio di tossicità

  • Einstein Trust Layer assegna un punteggio ai contenuti in termini di tossicità.

  • I punteggi di tossicità vengono registrati e archiviati in Data Cloud come parte dell’audit trail.

Grazie per il tuo feedback.Il tuo feedback è stato inviato. Grazie!