Tableau AI et la confiance

Il est important que vos données soient sécurisées pendant que vous innovez grâce aux nouvelles technologies. Tableau AI fait de la confiance sa valeur principale, et nous nous efforçons de garantir la sécurité de vos données tout en créant des expériences précises et sûres.

Tableau AI et vos données

Pour garantir la sécurité de vos données, Salesforce a conclu des accords avec des fournisseurs de grands modèles de langage (GML), tels que OpenAI. Les organisations peuvent exploiter les capacités de l’IA générative sans que leurs données privées soient utilisées pour former le GML.

IA générative de confiance

Les solutions d'IA générative Einstein de Salesforce sont conçues, développées et fournies sur la base de cinq principes pour une IA générative fiable.

  • Précision : L’exactitude, la précision et le rappel de nos modèles constituent les piliers de tous nos travaux, et nous étayons les résultats de nos modèles par des explications et des sources chaque fois que cela est possible. Nous recommandons qu’une personne vérifie les résultats du modèle avant de les communiquer aux utilisateurs finaux.

  • Sécurité : Nous nous efforçons de détecter et d’atténuer l’écart, la toxicité et les résultats dommageables des modèles utilisés dans nos produits grâce à des techniques de détection et d’atténuation de pointe.

  • Transparence : Nous veillons à ce que nos modèles et nos fonctionnalités respectent la provenance des données et s’appuient sur vos données autant que possible.

  • Autonomisation : Nous pensons que nos produits doivent accroître les capacités des individus et les rendre plus efficaces et plus utiles dans leur travail.

  • Durabilité : Nous nous efforçons de créer des modèles de taille appropriée qui privilégient la précision et réduisent notre empreinte carbone.

Pour en savoir plus sur l’IA de confiance, consultez Recherche Salesforce : IA de confiance(Le lien s’ouvre dans une nouvelle fenêtre)

Utilisation pratique de la Couche de confiance Einstein

Tableau AI est optimisé par Einstein AI et hérite de la couche de confiance Einstein et des contrôles de sécurité.

Tableau Pulse permet d’analyser les résumés des découvertes générées en utilisant des découvertes modélisées en langage naturel et des valeurs calculées grâce à des modèles statistiques et déterministes. Tableau Pulse est également basé sur une couche de métriques qui délimite et sécurise un espace pour la détection des découvertes.

Tableau Pulse utilise l’IA générative pour améliorer et synthétiser le langage des découvertes générées par Tableau. Le résultat est un résumé des découvertes dans des termes simples qui facilitent rapidement l’interaction de l’utilisateur.

Pour permettre à Einstein Copilot pour Tableau de générer un calcul ou une description d’actif, nous devons d’abord ancrer Einstein Copilot dans vos données.

Lorsque vous lancez Einstein Copilot, nous interrogeons la source de données à laquelle vous êtes connecté. Ensuite, nous créons un résumé des noms de champ, des descriptions, des types de données et des 1 000 premières valeurs de champ uniques (non numériques) par champ. Ce résumé est envoyé au grand modèle de langage (GML) pour créer des plongements vectoriels permettant à Einstein Copilot de comprendre le contexte de vos données. Les résumés sont créés dans Tableau et les données contextuelles des résumés sont oubliées par le GML une fois les plongements vectoriels créés.

Lorsque vous entrez une question ou une demande dans le volet de conversation d’Einstein Copilot, une invite combinée comprenant l’entrée de l’utilisateur, les métadonnées décrivant l’état actuel de la visualisation (création Web), et le contexte historique du volet de conversation transite vers la couche de confiance Einstein jusqu’au GML. Les informations sensibles sont détectées et masquées par un texte d’espace réservé afin de préserver le contexte. Pour plus d’informations sur le masquage des données personnelles identifiables (DPI), consultez Prise en charge linguistique de la région de la couche de confiance Einstein(Le lien s’ouvre dans une nouvelle fenêtre) dans l’aide de Salesforce.

La réponse repasse par la couche de confiance Einstein pour déterminer la toxicité et démasquer toutes les données masquées. En raison de nos politiques de conservation des données zéro mises en place avec nos fournisseurs de GML tiers, toutes les données envoyées au GML ne sont pas conservées et sont supprimées après le renvoi d’une réponse.

Le résultat est une visualisation, un calcul ou une description de l’actif que vous pourrez consulter.

Des techniques comme celle-ci garantissent que nos produits adoptent l’IA générative d’une manière permettant une relation de confiance. Parallèlement, vos données clients ne servent pas à entraîner un modèle global.

Vous souhaitez en savoir plus sur la Couche de confiance Einstein? Consultez Couche de confiance Einstein : conçue pour la confiance(Le lien s’ouvre dans une nouvelle fenêtre) dans l’aide de Salesforce, ou suivez le module Couche de confiance Einstein(Le lien s’ouvre dans une nouvelle fenêtre) sur Salesforce Trailhead.

Examen des résultats de l’IA générative

Tableau AI est un outil qui vous aide à découvrir rapidement des aperçus, à prendre des décisions métier plus intelligentes et à être plus productif. Cette technologie ne remplace pas l’indispensable jugement humain. Vous êtes en fin de compte responsable de tous les résultats générés par le GML que vous intégrez dans votre analyse de données et que vous partagez avec vos utilisateurs.

Qu’il s’agisse de générer des calculs à utiliser dans un flux Tableau Prep, de résumer les aperçus pour les métriques que vous suivez, de se créer des visualisations individuelles à partir de vos données ou de rédiger des descriptions pour vos actifs de données, il est important de vérifier systématiquement que les résultats du GML sont exacts et pertinents.

Focalisez-vous sur l’exactitude et la sécurité du contenu avant de l’intégrer dans vos flux, vos visualisations et vos analyses.

  • Précision : L’IA générative peut parfois « halluciner » : produire des résultats qui ne sont pas étayés par des faits ou qui ne sont pas fondés sur des sources existantes. Avant d’intégrer des suggestions, vérifiez que les principaux détails sont corrects. Par exemple, la syntaxe proposée pour un calcul est-elle prise en charge par Tableau?

  • Préjugés et toxicité : Parce que l’IA est créée par des humains et formée sur des données générées par des humains, elle peut également contenir des préjugés contre des groupes traditionnellement marginalisés. Dans de rares cas, certaines sorties peuvent contenir un langage dommageable. Vérifiez que les sorties que vous générez conviennent à vos utilisateurs.

Si les résultats ne vous conviennent pas ou ne répondent pas aux besoins de votre entreprise, vous n’êtes pas obligé de les utiliser. Certaines fonctionnalités vous permettent de modifier la réponse directement avant de l’appliquer à vos données. Vous pouvez également essayer de reprendre à zéro pour générer un autre résultat. Pour nous aider à améliorer le résultat, faites-nous connaître le problème en utilisant les boutons pouce en haut et pouce en bas, le cas échéant, et donnez-nous votre avis.

Merci de vos commentaires!Votre commentaire s été envoyé avec succès. Merci!