L’IA dans Tableau et la confiance
Remarque : Einstein Copilot a été rebaptisé Tableau Agent, car la plateforme s’étend pour accueillir plus de fonctionnalités de l’agent d’IA. Depuis octobre 2024, vous verrez des mises à jour dans les sections de pages, des noms de champs et d’autres textes de l’interface utilisateur dans Tableau Prep, Tableau Catalog et la création Web Tableau Cloud. Le contenu d’aide et les modules Trailhead sont également mis à jour pour refléter ces changements.
Il est important que vos données soient sécurisées pendant que vous innovez grâce aux nouvelles technologies. L’IA dans Tableau fait de la confiance sa valeur principale, et nous nous efforçons de garantir la sécurité de vos données tout en créant des expériences précises et sûres.
L’IA dans Tableau et vos données
Pour garantir la sécurité de vos données, Salesforce a conclu des accords avec des fournisseurs de grands modèles de langage (GML), tels que OpenAI. Les organisations peuvent exploiter les capacités de l’IA générative sans que leurs données privées soient utilisées pour former le GML.
Routage des requêtes de GML géolocalisées
Avec Tableau Agent, la sélection d’un grand modèle de langage (GML) géré par Salesforce n’est pas prise en charge. L’équipe de développement de Tableau teste et sélectionne plutôt le meilleur modèle à utiliser, en fonction des performances, de la précision et du coût.
Certains modèles peuvent ne pas être disponibles dans la région la plus proche de l’emplacement de votre instance de plateforme d’IA générative Einstein. Si le modèle sélectionné n’est pas disponible dans votre région, les requêtes sont acheminées vers les États-Unis, où tous les modèles sont disponibles. Pour plus d’informations sur le modèle de GML actuellement utilisé dans votre version de Tableau Agent, contactez votre responsable de compte Tableau.
Pour plus d’informations sur le routage des requêtes de GML géolocalisées, consultez Routage des requêtes de GML géolocalisées sur la plateforme d’IA générative Einstein(Le lien s’ouvre dans une nouvelle fenêtre) dans l’aide de Salesforce.
IA générative de confiance
Les solutions d'IA générative Einstein de Salesforce sont conçues, développées et fournies sur la base de cinq principes pour une IA générative fiable.
Précision : L’exactitude, la précision et le rappel de nos modèles constituent les piliers de tous nos travaux, et nous étayons les résultats de nos modèles par des explications et des sources chaque fois que cela est possible. Nous recommandons qu’une personne vérifie les résultats du modèle avant de les communiquer aux utilisateurs finaux.
Sécurité : Nous nous efforçons de détecter et d’atténuer l’écart, la toxicité et les résultats dommageables des modèles utilisés dans nos produits grâce à des techniques de détection et d’atténuation de pointe.
Transparence : Nous veillons à ce que nos modèles et nos fonctionnalités respectent la provenance des données et s’appuient sur vos données autant que possible.
Autonomisation : Nous pensons que nos produits doivent accroître les capacités des individus et les rendre plus efficaces et plus utiles dans leur travail.
Durabilité : Nous nous efforçons de créer des modèles de taille appropriée qui privilégient la précision et réduisent notre empreinte carbone.
Pour en savoir plus sur l’IA de confiance, consultez Recherche Salesforce : IA de confiance(Le lien s’ouvre dans une nouvelle fenêtre)
Utilisation pratique de la Couche de confiance Einstein
L’IA dans Tableau est optimisé par Einstein AI et hérite de la couche de confiance Einstein et des contrôles de sécurité.
Tableau Pulse permet d’analyser les résumés des découvertes générées en utilisant des découvertes modélisées en langage naturel et des valeurs calculées grâce à des modèles statistiques et déterministes. Tableau Pulse est également basé sur une couche de métriques qui délimite et sécurise un espace pour la détection des découvertes.
Tableau Pulse utilise l’IA générative pour améliorer et synthétiser le langage des découvertes générées par Tableau. Le résultat est un résumé des découvertes dans des termes simples qui facilitent rapidement l’interaction de l’utilisateur.
Pour permettre à Tableau Agent de générer une visualisation, un calcul ou une description d’actif, nous devons d’abord ancrer Tableau Agent dans vos données.
Lorsque vous lancez Tableau Agent, nous interrogeons la source de données à laquelle vous êtes connecté et créons un résumé qui inclut les métadonnées des champs (sous-titres des champs, descriptions des champs, rôles des données et types de données) et jusqu’à 1 000 valeurs de champ uniques si le type de données est une chaîne (texte). Ce résumé est envoyé au grand modèle de langage (GML) pour créer des plongements vectoriels permettant à Tableau Agent de comprendre le contexte de vos données. Les résumés sont créés dans Tableau et les données contextuelles des résumés sont oubliées par le GML une fois les plongements vectoriels créés.
Lorsque vous entrez une question ou une requête dans le volet de conversation, une invite combinée comprenant l’entrée de l’utilisateur, les métadonnées décrivant l’état actuel de la visualisation (création Web), et le contexte historique du volet de conversation transite vers la couche de confiance Einstein jusqu’au GML. La Couche de confiance Einstein peut être utilisée pour masquer les données personnelles identifiables (DPI) avant qu’elles ne soient envoyées au GML. À l’aide de techniques d’apprentissage automatique et de filtrage par motif, les DPI dans les invites sont remplacées par des jetons génériques, puis démasquées avec les valeurs d’origine dans la réponse. Pour plus d’informations sur le masquage des données personnelles identifiables (DPI), consultez Prise en charge linguistique de la région de la couche de confiance Einstein(Le lien s’ouvre dans une nouvelle fenêtre) dans l’aide de Salesforce.
La réponse repasse par la couche de confiance Einstein pour déterminer la toxicité et démasquer toutes les données masquées. En raison de nos politiques de conservation des données zéro mises en place avec nos fournisseurs de GML tiers, toutes les données envoyées au GML ne sont pas conservées et sont supprimées après le renvoi d’une réponse.
Le résultat est une visualisation, un calcul ou une description de l’actif que vous pourrez consulter.
Des techniques comme celle-ci garantissent que nos produits adoptent l’IA générative d’une manière permettant une relation de confiance. Parallèlement, vos données clients ne servent pas à entraîner un modèle global.
Vous souhaitez en savoir plus sur la Couche de confiance Einstein? Consultez Couche de confiance Einstein : conçue pour la confiance(Le lien s’ouvre dans une nouvelle fenêtre) dans l’aide de Salesforce, ou suivez le module Couche de confiance Einstein(Le lien s’ouvre dans une nouvelle fenêtre) sur Salesforce Trailhead.
Examen des résultats de l’IA générative
L’IA dans Tableau est un outil qui vous aide à découvrir rapidement des aperçus, à prendre des décisions métier plus intelligentes et à être plus productif. Cette technologie ne remplace pas l’indispensable jugement humain. Vous êtes en fin de compte responsable de tous les résultats générés par le GML que vous intégrez dans votre analyse de données et que vous partagez avec vos utilisateurs.
Qu’il s’agisse de générer des calculs à utiliser dans un flux Tableau Prep, de résumer les aperçus pour les métriques que vous suivez, de se créer des visualisations individuelles à partir de vos données ou de rédiger des descriptions pour vos actifs de données, il est important de vérifier systématiquement que les résultats du GML sont exacts et pertinents.
Focalisez-vous sur l’exactitude et la sécurité du contenu avant de l’intégrer dans vos flux, vos visualisations et vos analyses.
Précision : L’IA générative peut parfois « halluciner » : produire des résultats qui ne sont pas étayés par des faits ou qui ne sont pas fondés sur des sources existantes. Avant d’intégrer des suggestions, vérifiez que les principaux détails sont corrects. Par exemple, la syntaxe proposée pour un calcul est-elle prise en charge par Tableau?
Préjugés et toxicité : Parce que l’IA est créée par des humains et formée sur des données générées par des humains, elle peut également contenir des préjugés contre des groupes traditionnellement marginalisés. Dans de rares cas, certaines sorties peuvent contenir un langage dommageable. Vérifiez que les sorties que vous générez conviennent à vos utilisateurs.
Si les résultats ne vous conviennent pas ou ne répondent pas aux besoins de votre entreprise, vous n’êtes pas obligé de les utiliser. Certaines fonctionnalités vous permettent de modifier la réponse directement avant de l’appliquer à vos données. Vous pouvez également essayer de reprendre à zéro pour générer un autre résultat. Pour nous aider à améliorer le résultat, faites-nous connaître le problème en utilisant les boutons pouce en haut et pouce en bas, le cas échéant, et donnez-nous votre avis.