Tableau AI e fiducia

È importante che i tuoi dati rimangano al sicuro mentre introduci innovazioni con le nuove tecnologie. Con Tableau AI, manteniamo la fiducia come valore principale. Ci impegniamo a garantire che i tuoi dati siano protetti creando al tempo stesso esperienze accurate e sicure.

Tableau AI e i tuoi dati

Per mantenere i tuoi dati al sicuro, Salesforce ha stipulato accordi con fornitori LLM (Large Language Model), come OpenAI. Le organizzazioni possono sfruttare le capacità di intelligenza artificiale generativa senza che i loro dati privati vengano utilizzati per addestrare il modello LLM.

IA generativa affidabile

Le soluzioni di intelligenza artificiale generativa Einstein di Salesforce sono progettate, sviluppate e fornite sulla base di cinque principi per un’intelligenza artificiale generativa affidabile.

  • Precisione: diamo la priorità all’accuratezza, alla precisione e al richiamo nei nostri modelli e, quando possibile, supportiamo i risultati del modello con spiegazioni e fonti. È consigliabile verificare l’output del modello prima di condividerlo con gli utenti finali.

  • Sicurezza: lavoriamo per rilevare e mitigare pregiudizi, tossicità e risultati dannosi generati dai modelli utilizzati nei nostri prodotti attraverso tecniche di rilevamento e mitigazione leader del settore.

  • Trasparenza: ci assicuriamo che i nostri modelli e le nostre funzionalità rispettino la provenienza dei dati e siano radicati nei tuoi dati quando possibile.

  • Potenziamento: crediamo che i nostri prodotti debbano aumentare le capacità delle persone e renderle più efficienti e propositive nel loro lavoro.

  • Sostenibilità: ci impegniamo a creare modelli delle giuste dimensioni, che diano priorità alla precisione e riducano le nostre emissioni di CO2.

Per maggiori informazioni sull’IA affidabile, consulta Salesforce Research: intelligenza artificiale affidabile(Il collegamento viene aperto in una nuova finestra) (in inglese)

Einstein Trust Layer in azione

Tableau AI si basa sull’intelligenza artificiale di Einstein ed eredita Einstein Trust Layer e i controlli di sicurezza.

Con Tableau Pulse, i riepiloghi delle informazioni dettagliate che generiamo sono basati su informazioni in linguaggio naturale e valori calcolati con modelli statistici deterministici. Tableau Pulse si basa anche su un livello di metrica che fornisce uno spazio delimitato e sicuro per il rilevamento delle informazioni dettagliate.

Tableau Pulse utilizza l’intelligenza artificiale generativa per migliorare e sintetizzare il linguaggio delle informazioni dettagliate generate da Tableau. Il risultato sono informazioni dettagliate riepilogate in un linguaggio facilmente comprensibile, con cui l’utente può interagire rapidamente.

Per consentire a Einstein Copilot per Tableau di restituire un calcolo o una descrizione di una risorsa, dobbiamo prima inserire Einstein Copilot nei tuoi dati.

Quando avvii Einstein Copilot, eseguiamo una query sull’origine dati a cui sei collegato e creiamo un riepilogo dei nomi dei campi, delle descrizioni, dei tipi di dati e dei primi 1000 valori unici (non numerici) per campo. Questo riepilogo viene inviato al modello linguistico di grandi dimensioni (LLM) per creare incorporamenti di vettori in modo che Einstein Copilot possa comprendere il contesto dei tuoi dati. La creazione del riepilogo avviene in Tableau e i dati di contesto del riepilogo vengono rimossi dal modello linguistico di grandi dimensioni non appena vengono creati gli incorporamenti dei vettori.

Quando digiti una domanda o una richiesta nel riquadro della conversazione in Einstein Copilot, viene visualizzato un prompt combinato costituito dall’input dell’utente e dal contesto cronologico del riquadro delle conversazioni, che vengono trasferiti al modello linguistico di grandi dimensioni tramite Einstein Trust Layer. Le informazioni sensibili vengono rilevate e mascherate con testo segnaposto per mantenere il contesto. Per maggiori informazioni sul mascheramento PII, consulta Supporto linguistico per la regione Einstein Trust Layer(Il collegamento viene aperto in una nuova finestra) nella guida di Salesforce.

La risposta passa di nuovo attraverso Einstein Trust Layer per verificare la tossicità e smascherare eventuali dati mascherati. A causa dei nostri criteri di nessuna conservazione dei dati in atto predisposti con i nostri fornitori di modelli linguistici di grandi dimensioni (LLM) di terze parti, tutti i dati inviati al modello LLM non vengono conservati e vengono eliminati dopo la restituzione di una risposta.

Il risultato è un calcolo o una descrizione della risorsa pronta per la revisione.

Tecniche come questa garantiscono che i nostri prodotti adottino l’intelligenza artificiale generativa in modo affidabile. Allo stesso tempo, i dati dei clienti non vengono utilizzati per addestrare alcun modello globale.

Vuoi saperne di più su Einstein Trust Layer? Consulta Einstein Trust Layer: progettato per la fiducia(Il collegamento viene aperto in una nuova finestra) nella guida di Salesforce oppure compila il modulo Einstein Trust Layer(Il collegamento viene aperto in una nuova finestra) su Salesforce Trailhead.

Revisione degli output dell’intelligenza artificiale generativa

Tableau AI è uno strumento che può aiutarti a ottenere rapidamente informazioni dettagliate, prendere decisioni aziendali più intelligenti ed essere più produttivo. Questa tecnologia non sostituisce il giudizio umano. In ultima analisi, sei responsabile di tutti gli output generati da LLM che incorpori nell’analisi dei dati e condividi con i tuoi utenti.

Che si tratti di generare calcoli da utilizzare in un flusso di Tableau Prep, riepilogare informazioni dettagliate per le metriche che segui, creare visualizzazioni dai tuoi dati o creare bozze di descrizioni per le tue risorse di dati, è importante verificare sempre che l’output del modello LLM sia accurato e appropriato.

Concentrati sull’accuratezza e sulla sicurezza del contenuto prima di incorporarlo nei flussi, nelle visualizzazioni e nelle analisi.

  • Precisione: l’intelligenza artificiale generativa talvolta può produrre “allucinazioni”, ovvero risultati che non sono fondati sui fatti o su fonti esistenti. Prima di incorporare qualsiasi suggerimento, controlla che i dettagli principali siano corretti. Ad esempio, la sintassi proposta per un calcolo è supportata da Tableau?

  • Pregiudizi e tossicità: poiché l’intelligenza artificiale è creata da esseri umani e addestrata su dati creati da esseri umani, può anche contenere pregiudizi nei confronti di gruppi storicamente emarginati. In rari casi, alcuni output possono contenere un linguaggio dannoso. Controlla i tuoi output per assicurarti che siano appropriati per gli utenti.

Se l’output non soddisfa i tuoi standard o le tue esigenze aziendali, non sei obbligato a utilizzarlo. Alcune funzionalità ti consentono di modificare direttamente la risposta prima di applicarla ai dati e puoi anche provare a ricominciare da capo per generare un altro output. Per aiutarci a migliorare il risultato, facci sapere cosa c’era di sbagliato utilizzando i pulsanti Pollice su e Pollice giù ove disponibili e fornisci feedback.

Grazie per il tuo feedback.Il tuo feedback è stato inviato. Grazie!