AI in Tableau en vertrouwen

Opmerking: de naam Einstein Copilot is gewijzigd in Tableau Agent, omdat het platform wordt uitgebreid met meer AI-agentfunctionaliteit. Vanaf oktober 2024 ziet u wijzigingen op pagina's, veldnamen en in andere UI-tekst in Tableau Prep, Tableau Catalog en Tableau Cloud Webauthoring. Ook de Help-inhoud en Trailhead-modules worden bijgewerkt met deze wijzigingen.

Het is belangrijk dat uw data veilig blijven terwijl u innoveert met nieuwe technologie. Bij AI in Tableau is vertrouwen onze belangrijkste waarde. We doen er alles aan om te zorgen dat uw data veilig zijn, terwijl we tegelijkertijd nauwkeurige en veilige ervaringen creëren.

AI in tableau en uw data

Salesforce heeft overeenkomsten gesloten met LLM-aanbieders (Large Language Model), zoals OpenAI, om uw data veilig te houden. Organisaties kunnen gebruikmaken van generatieve AI-mogelijkheden zonder dat hun privédata worden gebruikt voor het trainen van de LLM.

Geo-bewuste LLM-aanvraagroutering

Met Tableau Agent is het niet mogelijk om een door Salesforce beheerd Large Language Model (LLM) te kiezen. In plaats daarvan test en selecteert het ontwikkelteam bij Tableau het beste model op basis van prestaties, nauwkeurigheid en kosten.

Sommige modellen zijn mogelijk niet beschikbaar in de regio die het dichtst bij de locatie van uw generatieve Einstein AI Platform-instantie ligt. Als het geselecteerde model niet beschikbaar is in uw regio, worden de aanvragen doorgestuurd naar de Verenigde Staten, waar alle modellen wel beschikbaar zijn. Neem contact op met uw Tableau Account Executive voor informatie over welk LLM-model momenteel in uw versie van Tableau Agent wordt gebruikt.

Zie Geo-Aware LLM-aanvraagroutering op het generatieve Einstein AI-platform(Link wordt in een nieuw venster geopend) in de Help van Salesforce voor meer informatie over Geo-aware LLM-aanvraagroutering.

Betrouwbare generatieve AI

De generatieve Einstein AI-oplossingen van Salesforce zijn ontworpen, ontwikkeld en geleverd op basis van vijf principes voor betrouwbare generatieve AI.

  • Nauwkeurigheid: wij geven prioriteit aan nauwkeurigheid, precisie en herinnering in onze modellen en we ondersteunen onze modelresultaten waar mogelijk met uitleg en bronnen. We adviseren om modeluitvoer door een mens te laten controleren voordat u deze met eindgebruikers deelt.

  • Veiligheid: we werken aan het detecteren en mitigeren van vooroordelen, toxiciteit en schadelijke uitkomsten van modellen die in onze producten worden gebruikt door middel van toonaangevende detectie- en mitigatietechnieken.

  • Transparantie: we zorgen dat onze modellen en functies de herkomst van de data respecteren en waar mogelijk gebaseerd zijn op uw data.

  • Zelfbeschikking: we geloven dat onze producten de mogelijkheden van mensen moeten vergroten zodat deze efficiënter en doelgerichter kunnen werken.

  • Duurzaamheid: we streven ernaar om modellen te bouwen met de juiste afmetingen, waarbij nauwkeurigheid voorop staat en onze CO2-voetafdruk wordt verkleind.

Zie Salesforce-onderzoek: betrouwbare AI(Link wordt in een nieuw venster geopend) voor meer informatie over vertrouwde AI.

De Einstein Vertrouwenslaag in actie

AI in Tableau wordt mogelijk gemaakt door Einstein AI en benut de Einstein Vertrouwenslaag en beveiligingscontroles.

Met Tableau Pulse verankeren we de samenvattingen van inzichten die we genereren met op sjablonen gebaseerde inzichten in natuurlijke taal en waarden die worden berekend met behulp van deterministische statistische modellen. Tableau Pulse is ook gebaseerd op een statistische laag die een begrensde, veilige ruimte biedt voor het detecteren van inzichten.

Tableau Pulse maakt gebruik van generatieve AI om de taal van de door Tableau gegenereerde inzichten te verbeteren en te synthetiseren. Dit resulteert in samengevatte inzichten in eenvoudig te begrijpen taal, waarmee de gebruiker snel aan de slag kan.

Om Tableau Agent een visualisatie, berekening of een beschrijving van een asset te laten retourneren, moeten we Tableau Agent eerst in uw data onderbrengen.

Wanneer u Tableau Agent start, wordt er een query uitgevoerd op de databron waarmee u bent verbonden en wordt er een samenvatting gemaakt met veldmetadata (veldbijschriften, veldbeschrijvingen, datarollen en datatypen) en maximaal 1000 unieke veldwaarden als het datatype tekenreeks (tekst) is. Deze samenvatting wordt naar het LLM (Large Language Model) gestuurd om vectoren in te sluiten, zodat Tableau Agent de context van uw data kan begrijpen. Het maken van de samenvatting gebeurt binnen Tableau en de contextdata van de samenvatting worden door de LLM vergeten zodra de vectoren zijn ingesloten.

Wanneer u een vraag of verzoek typt in het gespreksvenster, loopt er een gecombineerde prompt bestaande uit de invoer van de gebruiker, metadata die de huidige status van de visualisatie beschrijven (webauthoring) en historische context van het gespreksvenster via de Einstein Vertrouwenslaag naar de LLM. Met de Einstein Vertrouwenslaag kunt u persoonlijk identificeerbare informatie (PII) maskeren voordat deze naar de LLM wordt verzonden. Met behulp van machine learning en patroonherkenningstechnieken worden PII in prompts vervangen door generieke tokens en vervolgens ontmaskerd met de oorspronkelijke waarden in het antwoord. Zie Einstein Vertrouwenslaag-ondersteuning voor regionale talen(Link wordt in een nieuw venster geopend) in de Help van Salesforce voor meer informatie over PII-maskering.

De reactie stroomt via de Einstein Vertrouwenslaag terug om te controleren op toxiciteit en om eventuele gemaskeerde data te ontmaskeren. Omdat we bij onze externe LLM-aanbieders geen data bewaren, worden de data die naar de LLM worden verzonden niet bewaard, en worden deze verwijderd nadat een reactie is teruggestuurd.

Het resultaat is een berekening of een beschrijving van de asset die u kunt bekijken.

Technieken zoals deze zorgen dat onze producten op een betrouwbare manier generatieve AI toepassen. Tegelijkertijd worden uw klantdata niet gebruikt om een algemeen model te trainen.

Wilt u meer weten over de Einstein Vertrouwenslaag? Zie Einstein Vertrouwenslaag: ontworpen voor vertrouwen(Link wordt in een nieuw venster geopend) in de Help van Salesforce. Of volg de Einstein Vertrouwenslaag(Link wordt in een nieuw venster geopend)-module op Salesforce Trailhead.

Het beoordelen van generatieve AI-uitvoer

AI in Tableau is een hulpmiddel waarmee u snel inzichten kunt ontdekken, slimmere zakelijke beslissingen kunt nemen en productiever kunt werken. Deze technologie is geen vervanging voor het menselijk oordeel. U bent uiteindelijk verantwoordelijk voor alle door LLM gegenereerde uitkomsten die u in uw data-analyse opneemt en met uw gebruikers deelt.

Of het nu gaat om het genereren van berekeningen voor gebruik in een Tableau Prep-flow, het samenvatten van inzichten voor statistieken die u volgt, het maken van visualisaties op basis van uw data of het opstellen van beschrijvingen voor uw data-assets: het is belangrijk om altijd te controleren of de LLM-uitvoer nauwkeurig en geschikt is.

Let op de nauwkeurigheid en veiligheid van de inhoud voordat u deze in uw flows, visualisaties en analyses opneemt.

  • Nauwkeurigheid: generatieve AI kan soms 'hallucineren': uitvoer fabriceren die niet gebaseerd is op feiten of bestaande bronnen. Controleer of de belangrijkste details correct zijn voordat u suggesties verwerkt. Wordt de voorgestelde syntaxis voor een berekening bijvoorbeeld ondersteund door Tableau?

  • Vooringenomenheid en toxiciteit: omdat AI door mensen wordt gecreëerd en wordt getraind met door mensen gecreëerde data, kan het ook vooroordelen bevatten tegen historisch gemarginaliseerde groepen. Soms kan de uitvoer schadelijke taal bevatten. Controleer uw uitvoer om er zeker van te zijn dat deze geschikt is voor uw gebruikers.

Als de uitvoer niet voldoet aan uw normen of zakelijke behoeften, hoeft u deze niet te gebruiken. Met sommige functies kunt u het antwoord direct bewerken voordat u het op uw data toepast. Ook kunt u proberen opnieuw te beginnen om een andere uitvoer te genereren. U kunt ons helpen de uitvoer te verbeteren door ons te laten weten wat er fout ging door de knoppen 'duim omhoog' en 'duim omlaag' te gebruiken (indien beschikbaar) en door feedback te geven.