Tableau AI et la confiance

Il est important d’assurer la sécurité de vos données pendant que vous innovez avec les nouvelles technologies. Avec Tableau AI, la confiance reste notre valeur n°1 et nous faisons tout notre possible pour garantir la sécurité de vos données tout en créant des expériences précises et sûres.

Tableau AI et vos données

Pour assurer la sécurité de vos données, Salesforce a conclu des accords avec des fournisseurs LLM (Large Language Model, ou modèle de langage de grande taille), comme OpenAI. Les organisations peuvent exploiter les capacités de l’IA générative sans que leurs données privées soient utilisées pour entraîner le LLM.

IA générative de confiance

Les solutions d’IA générative Einstein de Salesforce sont conçues, développées et fournies sur la base de cinq principes qui promeuvent une IA générative de confiance.

  • Précision : nous donnons la priorité à l’exactitude, à la précision et au rappel dans nos modèles, et nous étayons les résultats de nos modèles avec des explications et des sources chaque fois que possible. Nous recommandons qu’une vérification humaine de la sortie du modèle avant tout partage avec les utilisateurs finaux.

  • Sécurité : nous nous efforçons de détecter et d’atténuer les biais, la toxicité et les résultats nocifs des modèles utilisés dans nos produits grâce à des techniques de détection et d’atténuation de pointe.

  • Transparence : nous veillons à ce que nos modèles et fonctionnalités respectent la provenance des données et soient ancrés dans vos données autant que possible.

  • Autonomisation : nous sommes convaincus que nos produits doivent augmenter les capacités des individus et les rendre plus efficaces et plus utiles dans leur travail.

  • Durabilité : nous nous efforçons de créer des modèles de taille adaptée qui privilégient la précision et réduisent notre empreinte carbone.

Pour en savoir plus sur l’IA de confiance, consultez Recherche Salesforce : IA de confiance(Le lien s’ouvre dans une nouvelle fenêtre) (en anglais).

La Couche de confiance Einstein en action

Tableau AI est optimisé par Einstein AI et hérite de la couche de confiance Einstein et des contrôles de sécurité.

Avec Tableau Pulse, nous analysons les résumés d’insights que nous générons à l’aide d’informations exploitables modélisées en langage naturel et de valeurs calculées à l’aide de modèles statistiques déterministes. Tableau Pulse est également basé sur une couche de métriques qui fournit un espace limité et sécurisé pour la détection des insights.

Tableau Pulse utilise l’IA générative pour améliorer et synthétiser le langage des insights générés par Tableau. Le résultat est un résumé d’insights dans un langage facile à comprendre avec lequel l’utilisateur peut interagir rapidement.

Pour permettre à Einstein Copilot pour Tableau de renvoyer une visualisation, un calcul ou une description de ressource, nous devons d’abord ancrer Einstein Copilot dans vos données.

Lorsque vous lancez Einstein Copilot, nous interrogeons la source de données à laquelle vous êtes connecté et créons un résumé des noms de champ, des descriptions, des types de données et des 1 000 premières valeurs de champ uniques (non numériques) par champ. Ce résumé est envoyé au modèle de langage de grande taille (LLM) pour créer des intégrations vectorielles afin qu’Einstein Copilot puisse comprendre le contexte de vos données. La création du résumé s’effectue dans Tableau et les données contextuelles du résumé sont oubliées par le LLM dès que les intégrations vectorielles sont créées.

Lorsque vous tapez une question ou une demande dans le volet de conversation d’Einstein Copilot, une invite combinée composée de la saisie de l’utilisateur, de métadonnées décrivant l’état actuel de la visualisation (création Web) et du contexte historique du volet de conversation transite par la couche de confiance Einstein jusqu’au modèle LLM. Les informations sensibles sont détectées et masquées avec un texte d’espace réservé pour conserver le contexte. Pour plus d’informations sur le masquage des informations à caractère personnel, consultez Prise en charge linguistique de la région de la couche de confiance Einstein(Le lien s’ouvre dans une nouvelle fenêtre) dans l’aide de Salesforce.

La réponse revient via la couche de confiance Einstein pour vérifier la toxicité et révéler toutes les données masquées. En raison de nos règles de zéro conservation des données en vigueur avec nos fournisseurs LLM tiers, aucune des données envoyées au LLM n’est conservée. Elles sont supprimées après le renvoi d’une réponse.

Le résultat est une visualisation, un calcul ou une description de la ressource que vous pouvez alors d’emblée analyser.

Ce type de techniques garantit que nos produits adoptent l’IA générative de manière fiable. Dans le même temps, vos données client ne sont pas utilisées pour entraîner un modèle global.

Vous souhaitez en savoir plus sur la Couche de confiance Einstein ? Consultez Couche de confiance Einstein : conçue pour la confiance(Le lien s’ouvre dans une nouvelle fenêtre) dans l’aide de Salesforce, ou utilisez le module Couche de confiance Einstein(Le lien s’ouvre dans une nouvelle fenêtre) sur Salesforce Trailhead.

Vérification des résultats de l’IA générative

Tableau AI est un outil qui vous aide à découvrir rapidement des insights, à prendre des décisions métier plus intelligentes et à être plus productif. Cette technologie ne remplace pas le jugement humain. Au bout du compte, vous êtes responsable de tous les résultats générés par LLM que vous intégrez à votre analyse de données et que vous partagez avec vos utilisateurs.

Qu’il s’agisse de générer des calculs à utiliser dans un flux Tableau Prep, de résumer les insights sur les métriques que vous suivez, de créer des visualisations pour vous à partir de vos données ou de rédiger des descriptions pour vos ressources de données, il est important de toujours vérifier que la sortie LLM est exacte et appropriée.

Concentrez-vous sur l’exactitude et la sécurité du contenu avant de l’intégrer dans vos flux, visualisations et analyses.

  • Précision’ l’IA générative peut parfois « halluciner », c’est-à-dire fabriquer des résultats qui ne sont pas fondés sur des faits ou des sources existantes. Avant d’intégrer des suggestions, vérifiez que les détails clés sont corrects. Par exemple, la syntaxe proposée pour un calcul est-elle prise en charge par Tableau ?

  • Biais et toxicité : parce que l’IA est créée par des humains et entraînée sur des données créées par des humains, elle peut également contenir des biais à l’encontre de groupes historiquement marginalisés. Dans de rares cas, certaines sorties peuvent contenir un langage dommageable. Vérifiez vos sorties pour vous assurer qu’elles conviennent à vos utilisateurs.

Si le résultat ne répond pas à vos normes ou aux besoins de votre entreprise, rien ne vous oblige à l’utiliser. Certaines fonctionnalités vous permettent de modifier la réponse directement avant de l’appliquer à vos données, et vous pouvez également faire une nouvelle tentative pour générer une autre sortie. Pour nous aider à améliorer le résultat, faites-nous savoir ce qui n’allait pas en utilisant les boutons pouce vers le haut et pouce vers le bas lorsqu’ils sont disponibles et faites-nous part de vos commentaires.

Merci de vos commentaires !Avis correctement envoyé. Merci