L’IA dans Tableau et la confiance
Remarque : Einstein Copilot a été renommé Tableau Agent, la plate-forme s’étant étendue pour accueillir davantage de fonctionnalités d’agent IA. À compter d’octobre 2024, vous verrez des mises à jour des sections de page, des noms de champs et d’autres textes d’interface utilisateur dans Tableau Prep, Tableau Catalog et la création Web Tableau Cloud. Le contenu de l’aide et les modules Trailhead sont également mis à jour pour refléter ces changements.
Il est important d’assurer la sécurité de vos données pendant que vous innovez avec les nouvelles technologies. Avec l’IA dans Tableau, la confiance demeure notre valeur n°1 et nous faisons tout notre possible pour garantir la sécurité de vos données tout en créant des expériences précises et sûres.
L’IA dans Tableau et vos données
Pour assurer la sécurité de vos données, Salesforce a conclu des accords avec des fournisseurs LLM (Large Language Model, ou modèle de langage de grande taille), comme OpenAI. Les organisations peuvent exploiter les capacités de l’IA générative sans que leurs données privées soient utilisées pour entraîner le LLM.
Routage des requêtes LLM géo-sensibles
Avec Tableau Agent, le choix d’un modèle de langage de grande taille (LLM) géré par Salesforce n’est pas pris en charge. Au lieu de cela, l’équipe de développement de Tableau teste et sélectionne le meilleur modèle à utiliser, en fonction des performances, de la précision et du coût.
Certains modèles peuvent ne pas être disponibles dans la région la plus proche de l’emplacement où se situe votre instance de plate-forme d’IA générative Einstein. Si le modèle sélectionné n’est pas disponible dans votre région, les requêtes sont acheminées vers les États-Unis, où tous les modèles sont disponibles. Pour plus d’informations sur le modèle LLM actuellement utilisé dans votre version de Tableau Agent, contactez votre responsable de compte Tableau.
Pour plus d’informations sur le routage des requêtes LLM géo-sensibles, consultez Routage des requêtes LLM géo-sensibles sur la plateforme d’IA générative Einstein(Le lien s’ouvre dans une nouvelle fenêtre) dans l’aide de Salesforce.
IA générative de confiance
Les solutions d’IA générative Einstein de Salesforce sont conçues, développées et fournies sur la base de cinq principes qui promeuvent une IA générative de confiance.
Précision : nous donnons la priorité à l’exactitude, à la précision et au rappel dans nos modèles, et nous étayons les résultats de nos modèles avec des explications et des sources chaque fois que possible. Nous recommandons qu’une vérification humaine de la sortie du modèle avant tout partage avec les utilisateurs finaux.
Sécurité : nous nous efforçons de détecter et d’atténuer les biais, la toxicité et les résultats nocifs des modèles utilisés dans nos produits grâce à des techniques de détection et d’atténuation de pointe.
Transparence : nous veillons à ce que nos modèles et fonctionnalités respectent la provenance des données et soient ancrés dans vos données autant que possible.
Autonomisation : nous sommes convaincus que nos produits doivent augmenter les capacités des individus et les rendre plus efficaces et plus utiles dans leur travail.
Durabilité : nous nous efforçons de créer des modèles de taille adaptée qui privilégient la précision et réduisent notre empreinte carbone.
Pour en savoir plus sur l’IA de confiance, consultez Recherche Salesforce : IA de confiance(Le lien s’ouvre dans une nouvelle fenêtre) (en anglais).
La Couche de confiance Einstein en action
L’IA dans Tableau est optimisée par l’IA Einstein et hérite de la couche de confiance Einstein et des contrôles de sécurité.
Avec Tableau Pulse, nous analysons les résumés d’insights que nous générons à l’aide d’informations exploitables modélisées en langage naturel et de valeurs calculées à l’aide de modèles statistiques déterministes. Tableau Pulse est également basé sur une couche de métriques qui fournit un espace limité et sécurisé pour la détection des insights.
Tableau Pulse utilise l’IA générative pour améliorer et synthétiser le langage des insights générés par Tableau. Le résultat est un résumé d’insights dans un langage facile à comprendre avec lequel l’utilisateur peut interagir rapidement.
Pour que Tableau Agent puisse renvoyer une visualisation, un calcul ou une description de ressource, nous devons d’abord l’ancrer dans vos données.
Lorsque vous lancez Tableau Agent, nous interrogeons la source de données à laquelle vous êtes connecté et créons un résumé qui inclut les métadonnées de champ (légendes de champ, descriptions de champ, rôles de données et types de données) et jusqu’à 1 000 valeurs de champ uniques si le type de données est une chaîne (texte). Ce résumé est envoyé au modèle de langage de grande taille (LLM) pour créer des intégrations vectorielles afin que Tableau Agent puisse comprendre le contexte de vos données. La création du résumé s’effectue dans Tableau et les données contextuelles du résumé sont oubliées par le LLM dès que les intégrations vectorielles sont créées.
Lorsque vous tapez une question ou une requête dans le volet de conversation, une invite combinée composée de la saisie de l’utilisateur, des métadonnées décrivant l’état actuel de la visualisation (création Web) et du contexte historique du volet de conversation transite par la couche de confiance Einstein jusqu’au modèle LLM. La couche de confiance Einstein peut être utilisée pour masquer les données à caractère personnel (PII) avant qu’elles ne soient envoyées au LLM. À l’aide de techniques de machine learning et de correspondance de modèles, les données à caractère personnel dans les invites sont remplacées par des jetons génériques, puis affichées avec les valeurs d’origine dans la réponse. Pour plus d’informations sur le masquage des informations à caractère personnel, consultez Prise en charge linguistique de la région de la couche de confiance Einstein(Le lien s’ouvre dans une nouvelle fenêtre) dans l’aide de Salesforce.
La réponse revient via la couche de confiance Einstein pour vérifier la toxicité et révéler toutes les données masquées. En raison de nos règles de zéro conservation des données en vigueur avec nos fournisseurs LLM tiers, aucune des données envoyées au LLM n’est conservée. Elles sont supprimées après le renvoi d’une réponse.
Le résultat est une visualisation, un calcul ou une description de la ressource que vous pouvez alors d’emblée analyser.
Ce type de techniques garantit que nos produits adoptent l’IA générative de manière fiable. Dans le même temps, vos données client ne sont pas utilisées pour entraîner un modèle global.
Vous souhaitez en savoir plus sur la Couche de confiance Einstein ? Consultez Couche de confiance Einstein : conçue pour la confiance(Le lien s’ouvre dans une nouvelle fenêtre) dans l’aide de Salesforce, ou utilisez le module Couche de confiance Einstein(Le lien s’ouvre dans une nouvelle fenêtre) sur Salesforce Trailhead.
Vérification des résultats de l’IA générative
L’IA dans Tableau est un outil qui vous aide à découvrir rapidement des insights, à prendre des décisions métier plus intelligentes et à améliorer votre productivité. Cette technologie ne remplace pas le jugement humain. Au bout du compte, vous êtes responsable de tous les résultats générés par LLM que vous intégrez à votre analyse de données et que vous partagez avec vos utilisateurs.
Qu’il s’agisse de générer des calculs à utiliser dans un flux Tableau Prep, de résumer les insights sur les métriques que vous suivez, de créer des visualisations pour vous à partir de vos données ou de rédiger des descriptions pour vos ressources de données, il est important de toujours vérifier que la sortie LLM est exacte et appropriée.
Concentrez-vous sur l’exactitude et la sécurité du contenu avant de l’intégrer dans vos flux, visualisations et analyses.
Précision’ l’IA générative peut parfois « halluciner », c’est-à-dire fabriquer des résultats qui ne sont pas fondés sur des faits ou des sources existantes. Avant d’intégrer des suggestions, vérifiez que les détails clés sont corrects. Par exemple, la syntaxe proposée pour un calcul est-elle prise en charge par Tableau ?
Biais et toxicité : parce que l’IA est créée par des humains et entraînée sur des données créées par des humains, elle peut également contenir des biais à l’encontre de groupes historiquement marginalisés. Dans de rares cas, certaines sorties peuvent contenir un langage dommageable. Vérifiez vos sorties pour vous assurer qu’elles conviennent à vos utilisateurs.
Si le résultat ne répond pas à vos normes ou aux besoins de votre entreprise, rien ne vous oblige à l’utiliser. Certaines fonctionnalités vous permettent de modifier la réponse directement avant de l’appliquer à vos données, et vous pouvez également faire une nouvelle tentative pour générer une autre sortie. Pour nous aider à améliorer le résultat, faites-nous savoir ce qui n’allait pas en utilisant les boutons pouce vers le haut et pouce vers le bas lorsqu’ils sont disponibles et faites-nous part de vos commentaires.