Enregistrer et partager votre travail

À tout moment de votre flux, vous pouvez enregistrer manuellement votre travail, ou confier cette tâche automatique à Tableau lors de la création ou de la modification de flux sur le Web. Il y a quelques différences lorsque vous travaillez avec des flux sur le Web.

Pour plus d’information sur la création de flux sur le Web, consultez Tableau Prep sur le Web dans l’aide de Tableau Server(Le lien s’ouvre dans une nouvelle fenêtre) et de Tableau Cloud(Le lien s’ouvre dans une nouvelle fenêtre).

Tableau Prep BuilderTableau Prep sur le Web
  • Affichez un aperçu des données de votre flux dans Tableau Desktop.
  • Incluez des connexions de fichiers directes dans votre entrée de flux ou compressez vos fichiers et publiez le flux compressé sur votre serveur.
  • Envoyez votre flux vers un fichier, une source de données publiée ou une base de données.
  • Créez et modifiez les flux publiés sur le Web.
  • Téléversez des fichiers pour vos entrées de flux et connectez-vous à diverses sources de données.
  • Envoyez votre flux vers une source de données publiée ou vers une base de données.

Pour garder les données à jour, vous pouvez exécuter manuellement des flux individuels depuis Tableau Prep Builder ou à la ligne de commande. Vous pouvez également exécuter des flux publiés sur Tableau Server ou Tableau Cloud manuellement ou de manière programmée. Pour plus d’information sur l’exécution de flux, consultez Publier un flux sur Tableau Server ou Tableau Cloud.

Enregistrer un flux

Dans Tableau Prep Builder, vous pouvez enregistrer manuellement votre flux pour sauvegarder votre travail avant d’effectuer toute opération supplémentaire. Votre flux est enregistré au format de fichier de flux Tableau Prep (.tfl).

Vous pouvez également compresser vos fichiers locaux (Excel, fichiers texte et extraits Tableau) avec votre flux pour les partager avec d’autres, de la même manière que vous compressez un classeur pour le partager dans Tableau Desktop. Seuls les fichiers locaux peuvent être compressés avec un flux. Les données issues des connexions à des bases de données, par exemple, ne sont pas incluses.

En mode de création Web, les fichiers locaux sont automatiquement compressés avec notre flux. Les connexions de fichiers directs ne sont pas encore prises en charge.

Lorsque vous enregistrez un flux compressé, ce flux est enregistré en tant que fichier de flux compressé Tableau (.tflx).

  • Pour enregistrer votre flux manuellement, dans le menu supérieur, sélectionnez Fichier > Enregistrer.
  • Dans Tableau Prep Builder, pour compresser vos fichiers de données avec votre flux, dans le menu supérieur, effectuez l’une des opérations suivantes :
    • Sélectionnez Fichier > Exporter le flux compressé
    • Sélectionnez Fichier > Enregistrer sous. Ensuite, dans la boîte de dialogue Enregistrer sous, sélectionnez Fichiers de flux compressés Tableau dans le menu déroulant Type de fichier.

Enregistrer automatiquement vos flux sur le Web

Si vous créez ou modifiez des flux sur le Web, dès que vous modifiez le flux (connexion à une source de données, ajout d’une étape, etc.), votre travail est automatiquement enregistré toutes les quelques secondes sous forme de brouillon pour vous éviter de perdre votre travail.

Vous ne pouvez enregistrer les flux que sur le serveur auquel vous êtes actuellement connecté. Vous ne pouvez pas créer un brouillon de flux sur un serveur et essayer de l’enregistrer ou de le publier sur un autre serveur. Si vous souhaitez publier le flux sur un autre projet sur le serveur, utilisez l’option de menu Fichier > Publier en tant que, puis sélectionnez votre projet dans la boîte de dialogue.

Tant que vous n’avez pas publié les brouillons de flux et que vous ne les avez pas rendus accessibles à des personnes autorisées à accéder au projet sur votre serveur, vous seul pouvez les consulter. Les flux présentant un statut de brouillon sont balisés avec un badge Brouillon afin que vous puissiez facilement retrouver vos flux en cours. Si le flux n’a jamais été publié, un badge Jamais publié s’affiche à côté du badge Brouillon.

Une fois qu’un flux est publié et que vous modifiez et republiez le flux, une nouvelle version est créée. Vous pouvez voir une liste des versions du flux dans la boîte de dialogue Historique des révisions. À partir de la page Explorer, cliquez sur le menu Actions et sélectionnez Historique des révisions.

Pour plus d’information sur la gestion de l’historique des révisions, consultez Utiliser des révisions de contenu(Le lien s’ouvre dans une nouvelle fenêtre) dans l’Aide de Tableau Desktop.

Remarque : La fonction d’enregistrement automatique est activée par défaut. Les administrateurs ont la possibilité de désactiver la fonction d’enregistrement automatique sur un site, mais ce n’est pas recommandé. Pour désactiver l’enregistrement automatique, utilisez la méthode API REST Tableau Server « Mise à jour de site » et définissez l’attribut flowAutoSaveEnabled sur « false ». Pour plus d’information, consultez Méthodes du site de l’API REST Tableau Server : site de mise à jour(Le lien s’ouvre dans une nouvelle fenêtre).

Récupération automatique de fichiers

Par défaut, Tableau Prep Builder enregistre automatiquement un brouillon de tout flux ouvert en cas de blocage ou de panne de l’application. Les brouillons de flux sont enregistrés dans votre dossier Flux récupérés sur Mon référentiel Tableau Prep. La prochaine fois que vous ouvrez l’application, une boîte de dialogue affiche la liste des flux récupérés que vous pouvez sélectionner. Vous pouvez ouvrir un flux récupéré et reprendre là où vous vous étiez arrêté, ou supprimer le fichier de flux récupéré si vous n’en avez pas besoin.

Remarque : Si vous avez récupéré des flux dans votre dossier Flux récupérés, cette boîte de dialogue s’affiche chaque fois que vous ouvrez l’application jusqu’à ce que ce dossier soit vide.

Si vous ne souhaitez pas activer cette fonctionnalité, en tant qu’administrateur, vous pouvez la désactiver pendant ou après l’installation. Pour plus d’information sur la désactivation de cette fonctionnalité, consultez Désactiver la récupération de fichiers(Le lien s’ouvre dans une nouvelle fenêtre) dans le guide de déploiement de Tableau Desktop et Tableau Prep.

Afficher la sortie de flux dans Tableau Desktop

Remarque : Cette option n’est pas disponible sur le Web.

Lorsque vous nettoyez vos données, il arrive que vous souhaitiez vérifier l’avancement de l’opération en la consultant dans Tableau Desktop. Lorsque votre flux s’ouvre dans Tableau Desktop, Tableau Prep Builder crée un fichier Tableau .hyper permanent et un fichier de source de données Tableau (.tds). Les fichiers sont enregistrés dans votre référentiel Tableau dans le fichier Sources de données afin que vous puissiez expérimenter avec vos données à tout moment.

Lorsque vous ouvrez le flux dans Tableau Desktop, vous pouvez voir l’échantillon de données avec lequel vous travaillez dans votre flux et les opérations qui s’y appliquent, jusqu’à l’étape que vous avez sélectionnée.

Remarque : Bien que vous puissiez expérimenter avec vos données, Tableau ne vous présente qu’un échantillon de vos données et vous ne pouvez pas enregistrer le classeur en tant que classeur complet (.twbx). Lorsque vous êtes prêt à travailler avec vos données dans Tableau, créez une étape de sortie dans votre flux et enregistrez la sortie dans un fichier ou en tant que source de données publiée, puis connectez-vous à la source de données complète dans Tableau.

Pour afficher votre échantillon de données dans Tableau Desktop, procédez comme suit :

  1. Faites un clic droit sur l’étape où vous souhaitez afficher vos données et sélectionnez Aperçu dans Tableau Desktop depuis le menu contextuel.

  2. Tableau Desktop s’ouvre dans l’onglet Feuille.

Créer des fichiers d’extrait de données et des sources de données publiées

Pour créer une sortie de flux, exécutez votre flux. Lorsque vous exécutez votre flux, vos modifications sont appliquées à l’intégralité de l’ensemble de données. L’exécution du flux entraîne la création d’un fichier de source de données Tableau (.tds) et d’un extrait (.hyper).

Tableau Prep Builder

Vous pouvez créer un fichier d’extrait depuis votre sortie de flux pour l’utiliser dans Tableau Desktop ou partager vos données avec des tiers. Créez un fichier d’extrait aux formats suivants :

  • Extrait Hyper (.hyper) : Il s’agit du type de fichier d’extrait le plus récent de Tableau.
  • Valeurs séparées par des virgules (.csv) : Enregistrez l’extrait dans un fichier .csv pour partager vos données avec des tiers. L’encodage d’un fichier CSV exporté sera UTF-8 avec BOM.
  • Microsoft Excel (.xlsx) : Une feuille de calcul Microsoft Excel.

Tableau Prep Builder et sur le Web

Publiez la sortie de votre flux en tant que source de données publiée ou sortie dans une base de données.

  • Enregistrez la sortie de votre flux en tant que source de données sur Tableau Server ou Tableau Cloud pour partager vos données et fournir un accès centralisé aux données que vous avez nettoyées, mises en forme et combinées.
  • Enregistrez votre sortie de flux dans une base de données pour créer, remplacer ou ajouter les données du tableau avec vos données de flux propres et préparées. Pour plus d’informations, consultez Enregistrer les données de sortie de flux dans des bases de données externes.

Utilisez l’actualisation incrémentielle lors de l’exécution de votre flux pour gagner du temps et des ressources en actualisant uniquement les nouvelles données au lieu de votre ensemble de données complet. Pour plus d’information sur la configuration et l’exécution de votre flux à l’aide d’une actualisation incrémentielle, consultez Actualiser les données de flux à l’aide d’une actualisation incrémentielle.

Remarque : Pour que vous puissiez publier votre sortie Tableau Prep Builder sur Tableau Server, l’API REST de Tableau Server doit être activée. Pour plus d’information, consultez Rest API Requirements(Le lien s’ouvre dans une nouvelle fenêtre) (Configuration requise pour l’API Rest) dans l’aide de l’API Rest Tableau. Pour publier sur un serveur qui utilise des certificats de chiffrement SSL (Secure Socket Layer), des étapes de configuration supplémentaires sont nécessaires sur l’ordinateur exécutant Tableau Prep Builder. Pour plus d’information, consultez la rubrique Rapports sur l’utilisation(Le lien s’ouvre dans une nouvelle fenêtre) dans le guide de déploiement de Tableau Desktop et Tableau Prep Builder.

Inclure des paramètres dans votre sortie de flux

Pris en charge dans Tableau Prep Builder et en ligne à partir de la version 2021.4

Incluez des valeurs de paramètre dans les noms de fichier de sortie de votre flux, les chemins, les noms de table ou les scripts SQL personnalisés (version 2022.1.1 et ultérieure) pour exécuter facilement vos flux pour différents ensembles de données. Pour plus d’information, consultez Créer et utiliser des paramètres dans les flux.

Créer un extrait dans un fichier

Remarque : Cette option de sortie n’est pas disponible lors de la création ou de la modification de flux sur le Web.

  1. Cliquez sur l’icône plus dans une étape et sélectionnez Ajouter une sortie.

    Si vous avez exécuté le flux précédemment, cliquez sur le bouton Exécuter le flux dans l’étape Sortie. Cela exécute le flux et met à jour votre sortie.

    Le volet Sortie s’ouvre et affiche un instantané de vos données.

  2. Dans le volet gauche, sélectionnez Fichier dans la liste déroulante Enregistrer la sortie sur. Dans les versions précédentes, sélectionnez Enregistrer dans le fichier.
  3. Cliquez sur le bouton Parcourir, puis dans la boîte de dialogue Enregistrer l’extrait sous, entrez un nom pour le fichier et cliquez sur Accepter.
  4. Dans le champ Type de sortie, sélectionnez l’un des types de sortie suivants :
    • Extrait de données Tableau (. hyper)
    • Valeurs séparées par des virgules (.csv)
  5. (Tableau Prep Builder) Dans la section Options d’écriture, affichez l’option d’écriture par défaut pour écrire les nouvelles données sur vos fichiers et apporter des modifications si nécessaire. Pour plus d’information, consultez Configurer les options d’écriture.

    • Créer une table : cette option crée une nouvelle table ou remplace la table existante par la nouvelle sortie.
    • Ajouter à la table : cette option ajoute les nouvelles données à votre table existante. Si la table n’existe pas déjà, une nouvelle table est créée et les exécutions suivantes ajoutent de nouvelles lignes à cette table.

      Remarque : L’option Ajouter à la table n’est pas prise en charge pour les types de sortie .csv. Pour plus d’information sur les combinaisons d’actualisations prises en charge, consultez Options d’actualisation de flux.

  6. Cliquez sur Exécuter le flux pour exécuter le flux et générer le fichier d’extrait.

Créer un extrait dans une feuille de calcul Microsoft Excel

Pris en charge dans Tableau Prep Builder à partir de la version 2021.1.2. Cette option de sortie n’est pas disponible lors de la création ou de la modification de flux sur le Web.

Lorsque vous extrayez des données de flux vers une feuille de calcul Microsoft Excel, vous pouvez créer une nouvelle feuille de calcul ou bien ajouter ou remplacer des données dans une feuille de calcul existante. Les conditions suivantes s’appliquent :

  • Seuls les fichiers au format .xlsx Microsoft Excel sont pris en charge.
  • Les lignes de feuille de calcul commencent à la cellule A1.
  • Lors de l’ajout ou du remplacement de données, la première ligne est présupposée être un en-tête.
  • Les noms d’en-tête sont ajoutés lors de la création d’une nouvelle feuille de calcul, mais pas lors de l’ajout de données à une feuille de calcul existante.
  • Les éventuels formats ou formules dans les feuilles de calcul existantes ne sont pas appliqués à la sortie de flux.
  • L’écriture sur des tables ou des plages nommées n’est pas prise en charge actuellement.
  • L’actualisation incrémentielle n’est actuellement pas prise en charge.

Données de flux de sortie vers un fichier de feuille de calcul Microsoft Excel

  1. Cliquez sur l’icône plus dans une étape et sélectionnez Ajouter une sortie.

    Si vous avez exécuté le flux précédemment, cliquez sur le bouton Exécuter le flux dans l’étape Sortie. Cela exécute le flux et met à jour votre sortie.

    Le volet Sortie s’ouvre et affiche un instantané de vos données.

  2. Dans le volet gauche, sélectionnez Fichier dans la liste déroulante Enregistrer la sortie sur.
  3. Cliquez sur le bouton Parcourir, puis dans la boîte de dialogue Enregistrer l’extrait, entrez un nom pour le fichier et cliquez sur Accepter.
  4. Dans le champ Type de sortie, sélectionnez Microsoft Excel (.xlsx).

  5. Dans le champ Feuille de calcul, sélectionnez la feuille de calcul sur laquelle vous souhaitez écrire vos résultats, ou entrez un nouveau nom dans le champ à la place, puis cliquez sur Créer une nouvelle table.
  6. Dans la boîte de dialogue Options d’écriture, sélectionnez l’une des options suivantes :
    • Créer une table : crée ou recrée (si le fichier existe déjà) la feuille de calcul avec vos données de flux.
    • Ajouter à la table : ajoute de nouvelles lignes à une feuille de calcul existante. Si la feuille de calcul n’existe pas, une feuille est créée et les flux ultérieurs ajoutent des lignes à cette feuille de calcul.
    • Remplacer les données : remplace toutes les données existantes à l’exception de la première ligne d’une feuille de calcul existante par les données de flux.

      Une comparaison de champ vous montre les champs de votre flux qui correspondent aux champs de votre table, si celle-ci existe déjà. Si la feuille de calcul est nouvelle, une correspondance élément par élément s’affiche. Tous les champs qui n’ont pas de correspondance sont ignorés.

  7. Cliquez sur Exécuter maintenant pour exécuter le flux et générer le fichier d’extrait Microsoft Excel.

Créer une source de données publiée

  1. Cliquez sur l’icône plus dans une étape et sélectionnez Ajouter une sortie.

    Remarque : Tableau Prep Builder actualise les sources de données précédemment publiées et gère les modélisations de données (par exemple, les champs calculés, le formatage des nombres, et ainsi de suite) qui pourraient être incluses dans la source de données. Si la source de données ne peut pas être actualisée, la source de données, y compris la modélisation des données, sera remplacée à la place.

  2. Le volet Sortie s’ouvre et affiche un instantané de vos données.

  3. Dans la liste déroulante Enregistrer la sortie dans, sélectionnez Source de données publiée (Publier en tant que source de données dans les versions antérieures). Renseignez les champs suivants :
    • Serveur (Tableau Prep Builder uniquement) : sélectionnez le serveur où vous souhaitez publier la source de données et l’extrait de données. Si vous n’êtes pas connecté à un serveur, vous serez invité à vous connecter.

      Remarque : depuis Tableau Prep Builder version 2020.1.4, une fois que vous vous êtes connecté à votre serveur, Tableau Prep Builder mémorise le nom et les informations d’identification de votre serveur lorsque vous fermez l’application. La prochaine fois que vous ouvrez l’application, vous êtes déjà connecté à votre serveur.

      Sur un Mac, vous pouvez être invité à donner accès à votre trousseau Mac afin que Tableau Prep Builder puisse utiliser les certificats SSL en toute sécurité pour se connecter à votre environnement Tableau Server ou Tableau Cloud.

      Si vous effectuez une sortie vers Tableau Cloud, incluez le pod sur lequel votre site est hébergé dans « serverUrl », par exemple, « https://eu-west-1a.online.tableau.com », et non « https://online.tableau.com ».

    • Projet : sélectionnez le projet où vous souhaitez charger la source de données et l’extrait.
    • Nom : entrez un nom de fichier.
    • Description : entrez une description pour la source de données.
  4. (Tableau Prep Builder) Dans la section Options d’écriture, affichez l’option d’écriture par défaut pour écrire les nouvelles données sur vos fichiers et apporter des modifications si nécessaire. Pour plus d’informations, consultez Configurer les options d’écriture.
    • Créer une table : cette option crée une nouvelle table ou remplace la table existante par la nouvelle sortie.
    • Ajouter à la table : cette option ajoute les nouvelles données à votre table existante. Si la table n’existe pas déjà, une nouvelle table est créée et les exécutions suivantes ajoutent de nouvelles lignes à cette table.
  5. Cliquez sur Exécuter le flux pour exécuter le flux et publier la source de données.

Enregistrer les données de sortie de flux dans des bases de données externes

Important : cette fonctionnalité vous permet de supprimer et de remplacer définitivement des données dans une base de données externe. Assurez-vous de disposer d’autorisations en écriture sur la base de données.
Pour éviter la perte de données, vous pouvez utiliser l’option SQL personnalisé pour faire une copie des données de votre table et l’exécuter avant d’écrire les données de flux sur la table.

Vous pouvez vous connecter aux données depuis n’importe lequel des connecteurs pris en charge par Tableau Prep Builder ou le Web, et envoyer des données à une base de données externe. Vous pouvez ainsi ajouter ou mettre à jour les données dans votre base de données avec des données nettoyées et préparées à partir de votre flux chaque fois que le flux est exécuté. Cette fonctionnalité est disponible à la fois pour les actualisations incrémentielles et les actualisations complètes. Pour plus d’informations sur la configuration d’une actualisation incrémentielle, consultez Actualiser les données de flux à l’aide d’une actualisation incrémentielle.

Lorsque vous enregistrez votre sortie de flux dans une base de données externe, Tableau Prep effectue les opérations suivantes :

  1. Génère les lignes et exécute toutes les commandes SQL sur la base de données.
  2. Écrit les données dans une table temporaire (ou zone de transit en cas de sortie sur Snowflake) dans la base de données de sortie.
  3. Si l’opération réussit, les données sont déplacées de la table temporaire (ou de votre zone de transit pour Snowflake) dans la table de destination.
  4. Exécute toutes les commandes SQL que vous souhaitez exécuter après avoir écrit les données sur la base de données.

Si le script SQL échoue, le flux échoue. Toutefois, vos données seront toujours chargées dans vos tables de base de données. Vous pouvez essayer de réexécuter le flux ou d’exécuter manuellement votre script SQL sur votre base de données pour l’appliquer.

Options de sortie

Vous pouvez sélectionner les options suivantes lors de l’écriture de données sur une base de données. Si la table n’existe pas déjà, elle est créée lors de la première exécution du flux.

  • Ajouter à la table : cette option ajoute des données à une table existante. Si la table n’existe pas, la table est créée lors de l’exécution initiale du flux et des données sont ajoutées à cette table à chaque exécution ultérieure du flux.
  • Créer une table : cette option crée une nouvelle table avec les données de votre flux. Si la table existe déjà, la table et toute structure de données ou de propriétés existante définie pour la table sont supprimées et remplacées par une nouvelle table qui utilise la structure de données du flux. Tous les champs existant dans le flux sont ajoutés à la nouvelle table de base de données.
  • Remplacer les données : cette option supprime les données de votre table existante et les remplace par les données de votre flux, mais conserve la structure et les propriétés de la table de base de données. Si la table n’existe pas, la table est créée lors de l’exécution initiale du flux et les données de table sont remplacées lors de chaque exécution ultérieure du flux.

Options supplémentaires

En plus des options d’écriture, vous pouvez également inclure des scripts SQL personnalisés ou ajouter une nouvelle table à votre base de données.

  • Scripts SQL personnalisés : entrez votre SQL personnalisé et sélectionnez si vous souhaitez exécuter votre script avant, après ou à la fois avant et après l’écriture des données dans les tables de la base de données. Vous pouvez utiliser ces scripts pour créer une copie de votre table de base de données avant que les données de flux ne soient écrites dans la table, ajouter un index, ajouter d’autres propriétés de table, etc.

    Remarque : à partir de la version 2022.1.1, vous pouvez également insérer des paramètres dans vos scripts SQL. Pour plus d’informations, consulter Appliquer des paramètres utilisateur aux étapes de sortie.

  • Ajouter une nouvelle table : ajoutez une nouvelle table portant un nom unique à la base de données au lieu d’en sélectionner une dans la liste de table existante. Si vous souhaitez appliquer un schéma autre que le schéma par défaut (Microsoft SQL Server et PostgreSQL), vous pouvez le spécifier à l’aide de la syntaxe [schema name].[table name].

Bases de données prises en charge et exigences relatives aux bases de données

Tableau Prep prend en charge l’écriture de données de flux sur des tables dans un certain nombre de bases de données. Les flux qui s’exécutent de manière programmée dans Tableau Cloud ne peuvent écrire sur ces bases de données que s’ils sont hébergés dans le nuage.

Les connexions réseau privées et les connexions sur site via Tableau Bridge ne sont pas prises en charge. Vous pouvez créer une source de données publiée dans Tableau Cloud qui utilise Bridge pour actualiser les données, et Prep peut ensuite se connecter à la source de données publiée.

Des restrictions ou des exigences en matière de données s’appliquent à certaines bases de données. Tableau Prep peut également imposer certaines limites afin de conserver des performances maximales lors de l’écriture de données sur les bases de données prises en charge. Le tableau suivant répertorie les bases de données où vous pouvez enregistrer vos données de flux et toutes les restrictions ou exigences relatives aux bases de données. Les données qui ne répondent pas à ces exigences peuvent générer des erreurs lors de l’exécution du flux.

Remarque : Il n’est pas encore possible de fixer des limites de caractères pour vos champs. Par contre, vous pouvez créer, dans votre base de données, des tables qui incluent des contraintes de limite de caractères, puis utiliser l’option Remplacer les données pour remplacer vos données tout en conservant la structure de la table dans votre base de données.

Base de donnéesExigences ou restrictions
Amazon Redshift
  • Les séquences de collationnement ne sont pas prises en charge. Consultez la documentation d’Amazon Redshift(Le lien s’ouvre dans une nouvelle fenêtre) pour plus d’informations.
  • Les noms de champ sont convertis entièrement en minuscules.
  • Les valeurs de champ de texte peuvent comporter jusqu’à 8192 caractères. Les valeurs plus longues sont tronquées.
Google BigQuery
  • Tableau peut écrire jusqu’à 2 Go en sortie dans la table.

Microsoft SQL Server
  • Les valeurs de champ de texte peuvent comporter jusqu’à 3072 caractères. Les valeurs plus longues sont tronquées.
  • (Version : 2022.3.1) Les sorties de flux publiées sur Tableau Server sont autorisées à accéder en écriture à une base de données Microsoft SQL Server à l’aide des informations d’identification Exécuter en tant que. Consultez maestro.output.write_to_mssql_using_runas dans tsm configuration set Options.
MySQL
  • Les valeurs de champ de texte peuvent comporter jusqu’à 8192 caractères. Les valeurs plus longues sont tronquées.
Oracle
  • Les noms de champs et de table ne peuvent pas dépasser 30 caractères.
  • Les valeurs de champ de texte peuvent comporter jusqu’à 1000 caractères. Les valeurs plus longues sont tronquées.
  • Les caractères spéciaux dans les noms de champ peuvent causer des erreurs.
Pivotal Greenplum Database
  • Les valeurs de champ de texte peuvent comporter jusqu’à 8192 caractères. Les valeurs plus longues sont tronquées.
PostgreSQL
  • Les valeurs de champ de texte peuvent comporter jusqu’à 8192 caractères. Les valeurs plus longues sont tronquées.
SAP HANA
  • Les valeurs de champ de texte peuvent comporter jusqu’à 8192 caractères. Les valeurs plus longues sont tronquées.
Snowflake
  • Les valeurs de champ de texte peuvent comporter jusqu’à 8192 caractères. Les valeurs plus longues sont tronquées.
  • Les options d’entrepôt doivent être définies sur la reprise automatique pour permettre à Tableau Prep d’écrire des données dans l’entrepôt de bases de données. Pour plus d’informations, consultez Suspension et reprise automatique(Le lien s’ouvre dans une nouvelle fenêtre) dans la documentation de Snowflake.

Teradata
  • Les valeurs de champ de texte peuvent comporter jusqu’à 1000 caractères. Les valeurs plus longues sont tronquées.
Vertica
  • Les valeurs de champ de texte peuvent comporter jusqu’à 8192 caractères. Les valeurs plus longues sont tronquées.

Enregistrer les données de flux dans une base de données

Remarque : l’écriture de la sortie de flux dans une base de données à l’aide de l’authentification Windows n’est pas prise en charge. Si vous utilisez cette méthode d’authentification, vous devrez modifier l’authentification de connexion pour utiliser le nom d’utilisateur et le mot de passe.

Vous pouvez intégrer vos informations d’identification pour la base de données lors de la publication du flux. Pour plus d’informations sur l’intégration d’informations d’identification, consultez la section Bases de données dans Publier un flux depuis Tableau Prep Builder

  1. Cliquez sur l’icône plus dans une étape et sélectionnez Ajouter une sortie.
  2. Dans la liste déroulante Enregistrer la sortie dans, sélectionnez Table de base de données.
  3. Sous l’onglet Paramètres, entrez l’information suivante :
    • Dans la liste déroulante Connexion, sélectionnez le connecteur de base de données où vous souhaitez écrire votre sortie de flux. Seuls les connecteurs pris en charge s’affichent. Il peut s’agir du même connecteur que celui que vous avez utilisé pour votre entrée de flux ou d’un connecteur différent. Si vous sélectionnez un autre connecteur, vous serez invité à vous connecter.

      Important : assurez-vous d’avoir l’autorisation d’écriture sur la base de données que vous sélectionnez. Dans le cas contraire, le flux risque de ne traiter les données que partiellement.

    • Dans la liste déroulante Base de données, sélectionnez la base de données où vous souhaitez enregistrer vos données de sortie de flux.
    • Dans la liste déroulante Table, sélectionnez la table où vous souhaitez enregistrer vos données de sortie de flux. Selon l’Option d’écriture que vous sélectionnez, une nouvelle table sera créée, les données de flux remplaceront toutes les données existantes dans la table, ou les données de flux seront ajoutées à la table existante.

      Pour créer une table dans la base de données, entrez plutôt un nom de table unique dans le champ, puis cliquez sur Créer une nouvelle table. Lorsque vous exécutez le flux pour la première fois, quelle que soit l’option d’écriture que vous sélectionnez, la table est créée dans la base de données en utilisant le même schéma que le flux.

  4. Le volet Sortie affiche un instantané de vos données. Une comparaison de champ vous montre les champs de votre flux qui correspondent aux champs de votre table, si la table existe déjà. Si la table est nouvelle, une correspondance élément par élément s’affiche.

    En cas de non-correspondance de champ, une note d’état vous montre toutes les erreurs.

    • Pas de correspondance : le champ est ignoré : les champs existent dans le flux mais pas dans la base de données. Le champ ne sera pas ajouté à la table de base de données sauf si vous sélectionnez l’option d’écriture Créer une table et effectuez une actualisation complète. Ensuite, les champs de flux sont ajoutés à la table de base de données et utilisent le schéma de sortie de flux.
    • Aucune correspondance : le champ contiendra des valeurs nulles : des champs existent dans la base de données, mais pas dans le flux. Le flux transmet une valeur nulle à la table de base de données du champ. Si le champ existe dans le flux, mais qu’il n’y a pas de correspondance parce que le nom du champ est différent, vous pouvez accéder à une étape de nettoyage et modifier le nom du champ afin qu’il corresponde au nom du champ de base de données. Pour savoir comment modifier le nom d’un champ, consultez Appliquer des opérations de nettoyage.
    • Erreur : les types de données de champ ne correspondent pas : le type de données attribué à un champ dans le flux et la table de base de données sur laquelle vous écrivez votre sortie doit correspondre, sinon le flux échouera. Vous pouvez accéder à une étape de nettoyage et modifier le type de données de champ pour résoudre ce problème. Pour plus d’informations sur la modification des types de données, consultez Vérifier les types de données affectés à vos données.
  5. Sélectionnez une option d’écriture. Vous pouvez sélectionner une option différente pour l’actualisation complète et incrémentielle et l’option est appliquée lorsque vous sélectionnez la méthode d’exécution de votre flux. Pour plus d’informations sur l’exécution de notre flux à l’aide d’une actualisation incrémentielle, consultez Actualiser les données de flux à l’aide d’une actualisation incrémentielle.
    • Ajouter à la table : cette option ajoute des données à une table existante. Si la table n’existe pas, la table est créée lors de l’exécution initiale du flux et des données sont ajoutées à cette table à chaque exécution ultérieure du flux.
    • Créer une table : cette option crée une nouvelle table. S’il existe déjà une table du même nom, la table existante est supprimée et remplacée par la nouvelle table. Toutes les structures ou les propriétés de données existantes définies pour la table sont également supprimées et remplacées par la structure de données du flux. Tous les champs existant dans le flux sont ajoutés à la nouvelle table de base de données.
    • Remplacer les données : cette option supprime les données de votre table existante et les remplace par les données de votre flux, mais conserve la structure et les propriétés de la table de base de données.
  6. (facultatif) Cliquez sur l’onglet SQL personnalisé et entrez votre script SQL. Vous pouvez entrer un script à exécuter avant et après l’écriture des données sur la table.

  7. Cliquez sur Exécuter le flux pour exécuter le flux et écrire vos données dans votre base de données sélectionnée.

Sauvegarder les données de sortie de flux dans les ensemble de données dans CRM Analytics

Pris en charge dans Tableau Prep Builder et en ligne à partir de la version 2022.3.

Remarque : CRM Analytics a un certain nombre de limites et de contraintes lors de l’intégration de données provenant de sources externes. Pour s’assurer que vous pouvez bien écrire votre sortie de flux dans CRM Analytics, consultez Considérations préalables à l’intégration de données dans des ensembles de données(Le lien s’ouvre dans une nouvelle fenêtre) dans l’aide de Salesforce.

Nettoyez vos données à l’aide de Tableau Prep et améliorez vos résultats de prédiction dans CRM Analytics. Il suffit de se connecter aux données dans n’importe quel connecteur pris en charge par Tableau Prep Builder ou Tableau Prep sur le Web. Ensuite, appliquez des transformations pour nettoyer vos données et transmettez vos données de flux directement aux ensembles de données auxquels vous avez accès dans CRM Analytics.

Les flux qui transmettent des données à CRM Analytics ne peuvent pas être exécutés dans l’interface en ligne de commande. Vous pouvez exécuter les flux manuellement à l’aide de Tableau Prep Builder ou d’une programmation sur le Web avec Tableau Prep Conductor.

Conditions préalables

Pour transmettre les données de flux à CRM Analytics, vérifiez que vous disposez des licences, accès et autorisations ci-après dans Salesforce et Tableau.

Exigences Salesforce

exigencedescription
Autorisations Salesforce

Vous devez être affecté à une licence CRM Analytics Plus ou CRM Analytics Growth.

La licence CRM Analytics Plus comprend les ensembles d’autorisations :

  • Administrateur CRM Analytics Plus : active toutes les autorisations requises pour gérer la plateforme CRM Analytics et Einstein Discovery, notamment les autorisations permettant de créer et de gérer des applications à partir de modèles CRM Analytics.

  • Utilisateur CRM Analytics Plus : active toutes les autorisations requises pour utiliser la plateforme CRM Analytics, Einstein Discovery et les applications à partir de modèles CRM Analytics.

La licence CRM Analytics Growth comprend les ensembles d’autorisations :

  • Administrateur CRM Analytics Growth : active toutes les autorisations requises pour gérer la plateforme CRM Analytics, notamment les autorisations permettant de créer et de gérer des applications à partir de modèles CRM Analytics.

  • Utilisateur CRM Analytics Growth : active toutes les autorisations requises pour utiliser la plateforme CRM Analytics et les applications à partir de modèles CRM Analytics.

Pour plus d’informations, consultez Découvrir les licences et les ensembles d’autorisations CRM Analytics(Le lien s’ouvre dans une nouvelle fenêtre) et Sélectionner et attribuer des autorisations aux utilisateurs(Le lien s’ouvre dans une nouvelle fenêtre) dans l’aide de Salesforce.

Paramètres de l’administrateur

Les administrateurs Salesforce devront configurer :

Exigences Tableau Prep

exigencedescription

Licence et autorisations Tableau Prep

Licence Creator.

Sous le rôle Creator, vous devez vous connecter au compte de votre organisation Salesforce et vous authentifier avant de pouvoir sélectionner les applications et les ensembles de données pour produire vos données de flux.

Connexion de données OAuth

Sous le rôle d’administrateur de serveur, configurez Tableau Server avec un identifiant client et un secret Oauth sur le connecteur. Cette étape est obligatoire pour pouvoir exécuter des flux sur Tableau Server

Pour plus d’information, consultez Configurer Tableau Server l’authentification Oauth depuis Salesforce.com(Le lien s’ouvre dans une nouvelle fenêtre) dans l’aide de Tableau Server.

Enregistrer les données de flux dans CRM Analytics

Les limites de saisie suivantes de Salesforce Analytics s’appliquent lors de l’enregistrement à partir de Tableau Prep Builder à Salesforce Analytics.

  • Taille maximale du fichier pour les téléchargements de données externes : 40 Go
  • Taille de fichier maximale pour tous les téléchargements de données externes sur une période continue de 24 heures : 50 Go
  1. Cliquez sur l’icône plus dans une étape et sélectionnez Ajouter une sortie.
  2. Dans la liste déroulante Enregistrer la sortie dans, sélectionnez CRM Analytics.

  3. Dans la section Ensemble de données, cliquez sur Se connecter à Salesforce.

    Connectez-vous à Salesforce et cliquez sur Autoriser pour permettre à Tableau d’accéder aux applications et ensembles de données CRM Analytics ou sélectionnez une connexion Salesforce existante

  4. Dans le champ Nom, sélectionnez le nom d’un ensemble de données existant. Cette action écrase l’ensemble de données et le remplace par votre sortie de flux. Vous pouvez aussi saisir un nouveau nom et cliquer sur Créer un nouvel ensemble de données pour créer un ensemble de données dans l’application CRM Analytics sélectionnée.

    Remarque : Les noms des ensembles de données ne doivent pas dépasser 80 caractères.

  5. Sous le champ Nom, vérifiez que l’application affichée est celle sur laquelle vous avez des droits d’écriture.

    Pour changer l’application, cliquez sur Accéder aux ensembles de données, sélectionnez ensuite l’application dans la liste, tapez le nom de l’ensemble de données dans le champ Nom, et cliquez sur Accepter.

  6. Dans la section Options d’écriture, Actualisation complète et Créer une table sont les seules options prises en charge.
  7. Cliquez sur Exécuter le flux pour exécuter le flux et écrire vos données dans l’ensemble de données CRM Analytics.

    Si votre flux s’exécute correctement, vous pouvez vérifier les résultats générés dans CRM Analytics dans l’onglet Surveiller du gestionnaire de données. Pour plus d’information sur cette fonctionnalité, consultez Surveiller un chargement de données externe(Le lien s’ouvre dans une nouvelle fenêtre) dans l’aide de Salesforce.

Enregistrer les données de sortie de flux dans Data Cloud

Pris en charge dans Tableau Prep Builder et en ligne à partir de la version 2023.3.

Préparez vos données avec Tableau Prep, puis associez-les aux ensembles de données existants dans Data Cloud. Utilisez l’un des connecteurs pris en charge par Tableau Prep Builder ou Tableau Prep sur le Web pour importer vos données, les nettoyer et les préparer, puis générer vos données de flux directement vers Data Cloud à l’aide de l’API d’ingestion.

Conditions préalables requises pour l’autorisation

Licence Salesforce

Pour plus d’information sur les éditions Data Cloud et les licences complémentaires, consultez Éditions et licences standard Data Cloud dans l’aide de Salesforce.

Consultez également Limites et consignes de Data Cloud.

Autorisations de l’espace de données

Vous devez être affecté à un espace de données et à l’un des ensembles d’autorisations suivants dans Data Cloud :

  • Administrateur Customer Data Cloud
  • Data Cloud pour l’administrateur marketing
  • Data Cloud pour les spécialistes des données marketing

Pour plus d’informations, consultez Gérer les espaces de données(Le lien s’ouvre dans une nouvelle fenêtre) et Gérer les espaces de données avec les anciens ensembles d’autorisations(Le lien s’ouvre dans une nouvelle fenêtre).

Autorisation d’ingestion dans Data Cloud

Vous devez être affecté aux éléments suivants pour accéder aux champs pour l’ingestion dans Data Cloud :

  • Connecteur Salesforce Data Cloud

Pour plus d’information, consultez Activer les autorisations d’objet et de champ.

Profils Salesforce

Activez l’accès au profil pour :

  • Autorisations administratives : API activée
  • Accès aux applications connectées : Nom de l’application connectée
Licence et autorisations Tableau PrepLicence Creator. Sous le rôle Creator, vous devez vous connecter au compte de votre organisation Salesforce et vous authentifier avant de pouvoir sélectionner les applications et les ensembles de données pour produire vos données de flux.

Enregistrer les données de flux dans Data Cloud

Si vous utilisez déjà l’API d’ingestion et vous appelez manuellement les API pour enregistrer des ensembles de données dans Data Cloud, vous pouvez simplifier ce flux de travail à l’aide de Tableau Prep. Les configurations préalables sont les mêmes pour Tableau Prep.

Si c’est la première fois que vous enregistrez des données dans Data Cloud, suivez les instructions de la section Conditions préalables à l’installation de Data Cloud.

  1. Cliquez sur l’icône plus dans une étape et sélectionnez Ajouter une sortie.
  2. Dans la liste déroulante Enregistrer la sortie, sélectionnez Salesforce Data Cloud.
  3. Dans la section Objet, sélectionnez l’organisation Salesforce Data Cloud à laquelle vous connecter.

  4. Dans le menu Salesforce Data Cloud, cliquez sur Se connecter.
  5. Une fenêtre de navigateur s’ouvre sur https://login.salesforce.com/.

  6. Connectez-vous à l’organisation Data Cloud à l’aide de votre nom d’utilisateur et de votre mot de passe.
  7. Dans le formulaire Autoriser l’accès, cliquez sur Autoriser.
  8. Dans la section Enregistrer la sortie, entrez le connecteur API d’ingestion et le nom d’objet.
  9. Le nom de l’objet de lac de données est une combinaison du nom du connecteur et de l’objet : IngestionAPIConnectorName-ObjectName. Dans l’exemple ci-dessous, le nom du connecteur est TableauSchema (1). Le nom de l’objet est typeMachineSensorDataStrin (2).

  10. La section Options d’écriture indique que les lignes existantes seront mises à jour si la valeur spécifiée existe déjà dans une table, ou qu’une nouvelle ligne sera insérée si la valeur spécifiée n’existe pas encore.
  11. Cliquez sur Exécuter le flux pour exécuter le flux et écrire vos données dans Data Cloud.
  12. Validez les données dans Data Cloud en visualisant l’état d’exécution dans Data Stream et les objets dans Data Explore.

Considérations

  • Vous pouvez exécuter un seul flux à la fois. L’exécution doit avoir été effectuée dans Data Cloud avant de pouvoir lancer une autre sauvegarde.
  • La sauvegarde d’un flux dans Data Cloud peut prendre un certain temps. Vérifiez l’état dans Data Cloud.
  • Les données sont sauvegardées sur Data Cloud à l’aide de la fonction Upsert. Si un enregistrement dans un fichier correspond à un enregistrement existant, les valeurs de vos données sont mises à jour dans l’enregistrement. Si aucune correspondance n’est établie, l’enregistrement est créé comme une nouvelle entité.
  • Pour Prep Conductor, si vous programmez l’exécution automatique du même flux, les données ne seront pas mises à jour. En effet, Upsert est la seule fonction prise en charge.
  • Vous ne pouvez pas interrompre la tâche pendant la sauvegarde vers Data Cloud.
  • Aucun des champs sauvegardés dans Data Cloud n’est validé. Validez les données dans Data Cloud.

Conditions préalables à l’installation de Data Cloud

Ces étapes sont un préalable à la sauvegarde des flux Tableau Prep vers Data Cloud. Pour en savoir plus sur les concepts de Data Cloud et le mappage des données entre les sources de données Tableau et Data Cloud, consultez À propos de Salesforce Data Cloud.

Configurer le connecteur de l’API Ingestion

Créez un flux de données de l’API Ingestion à partir de vos objets sources en téléversant un fichier schéma au format OpenAPI (OAS) avec une extension de fichier .yaml. Le fichier schéma décrit la structure des données de votre site Web. Pour plus d’information, consultez l’Exemple de fichier YMAL et l’API d’ingestion.

  1. Cliquez sur l’icône d’engrenage Installation, puis sur Installation de Data Cloud.
  2. Cliquez sur API Ingestion.
  3. Cliquez sur Nouveau et donnez un nom au connecteur.
  4. Sur la page de détails du nouveau connecteur, téléversez un fichier schéma au format OpenAPI (OAS) avec une extension de fichier .yaml. Le fichier schéma décrit la structure des données transférées par le biais de l’API.
  5. Remarque : Les schémas de l’API Ingestion sont soumis à des exigences précises. Consultez Exigences relatives aux schémas avant l’ingestion.

  6. Cliquez sur Enregistrer dans le formulaire Aperçu du schéma.

Créer un flux de données

Les flux de données sont une source de données introduite dans Data Cloud. Il s’agit des connexions et des données associées introduites dans Data Cloud.

  1. Accédez au lanceur d’applications et sélectionnez Data Cloud.
  2. Cliquez sur l’onglet Flux de données.
  3. Cliquez sur Nouveau et sélectionnez API Ingestion, puis cliquez sur Suivant.
  4. Sélectionnez l’API Ingestion et les objets.
  5. Sélectionnez l’espace de données, la catégorie et la clé primaire, puis cliquez sur Suivant.
  6. Une clé primaire effective doit être utilisée pour Data Cloud. S’il n’y en a pas, vous devez créer un champ de formule pour la clé primaire.

    Pour Catégorie, choisissez entre Profil, Engagement ou Autre. Un champ date/heure doit être présent pour les objets destinés à la catégorie Engagement. Cette exigence ne concerne pas les objets de type profile ou other. Pour plus d’information, consultez Catégorie et Clé primaire.

  7. Cliquez sur Déployer.
  8. Vous disposez désormais d’un flux de données et d’un objet lac de données. Votre flux de données peut désormais être ajouté à un espace de données.

Ajouter votre flux de données à un espace de données

Si vous introduisez les données d’une source quelconque dans Data Cloud, vous associez les objets de lac de données (DLO) à l’espace de données correspondant, avec ou sans filtres.

  1. Cliquez sur l’onglet Espaces de données.
  2. Choisissez l’espace de données par défaut ou le nom de l’espace de données auquel vous êtes affecté.
  3. Cliquez sur Ajouter des données.
  4. Sélectionnez l’objet de lac de données que vous avez créé et cliquez sur Suivant.
  5. (Facultatif) sélectionnez des filtres pour l’objet.
  6. Cliquez sur Enregistrer.

Mapper l’objet de lac de données aux objets Salesforce

Le mappage des données relie les champs Objet de lac de données aux champs Objet de modèle de données (DMO).

  1. Accédez à l’onglet Flux de données et sélectionnez le flux de données que vous avez créé.

  2. Dans la section Mappage des données, cliquez sur Démarrer.
  3. L’espace de travail de mappage des champs affiche vos DLO sources à gauche et vos DMO cibles à droite. Pour plus d’information, consultez Mapper des objets de modèle de données.

Créer une application connectée pour l’API Ingestion Data Cloud

Avant de pouvoir envoyer des données dans Data Cloud par le biais de l’API Ingestion, vous devez configurer une application connectée. Pour plus de détails, consultez les sections Activation des paramètres OAuth pour l’intégration à l’API et Création d’une application connectée pour l’API Ingestion Data Cloud.

Dans le cadre de la configuration de votre application connectée pour l’API Ingestion, vous devez sélectionner les étendues OAuth suivantes :

  • Accéder à vos données et les gérer à l’aide de l’API Ingestion Data Cloud (cdp_ingest_api)
  • Gérer les données de profil Data Cloud (cdp_profile_api)
  • Exécuter des requêtes SQL ANSI sur les données Data Cloud (cdp_query_api)
  • Gérer les données des utilisateurs par le biais des API (api)
  • Exécuter des demandes en votre nom à n’importe quel moment (refresh_token, offline_access)

Exigences relatives aux schémas

Pour créer une source API Ingestion dans Data Cloud, le fichier schéma que vous téléversez doit respecter des exigences spécifiques. Consultez Exigences relatives au schéma API.

  • Les schémas téléversés doivent être dans un format OpenAPI valide avec une extension .yml ou .yaml. OpenAPI version 3.0.x est prise en charge.
  • Les objets ne peuvent pas être imbriqués les uns dans les autres.
  • Chaque schéma doit avoir au moins un objet. Chaque objet doit avoir au moins un champ.
  • Les objets ne peuvent pas avoir plus de 1 000 champs.
  • Les objets ne doivent pas dépasser 80 caractères.
  • Les noms d’objet doivent inclure uniquement les lettres a-z, A-Z, 0–9, _, -. Les caractères Unicode sont interdits.
  • Les noms des champs doivent inclure uniquement les lettres a-z, A-Z, 0–9, _, -. Les caractères Unicode sont interdits.
  • Les noms de champs ne doivent pas contenir les mots réservés suivants : date_id, location_id, dat_account_currency, dat_exchange_rate, pacing_period, pacing_end_date, row_count, version. Les noms de champs ne doivent pas contenir la chaîne __.
  • Les noms de champs ne doivent pas dépasser 80 caractères.
  • Les champs respectent le type et le format suivants :
    • Pour le type texte ou le type booléen : chaîne
    • Pour le type numérique : numéro
    • Pour le type date : chaîne; format : date-heure
  • Les noms d’objet ne doivent pas être dupliqués; insensibles à la casse.
  • Les objets ne doivent pas avoir des noms de champs en double; insensibles à la casse.
  • Les champs de données de type DateTime dans vos charges utiles doivent être compatibles ISO 8601 UTC Zulu avec le format aaaa-MM-jj’T’HH:mm:ss.SSS’Z’.

Lors de la mise à jour de votre schéma, retenez que :

  • Les types de données des champs existants restent inchangés.
  • Lors de la mise à jour d’un objet, tous les champs existants pour cet objet doivent être présents.
  • Votre fichier schéma mis à jour ne comprend que les objets modifiés, vous n’avez donc pas besoin de fournir une liste complète des objets à chaque fois.
  • Un champ date/heure doit être présent pour les objets destinés à la catégorie Engagement. Cette exigence ne concerne pas les objets de type profile ou other .

Exemple de fichier YMAL

openapi: 3.0.3
  components:
    schemas:
      owner:
        type: object
        required:
          - id
          - name
          - region
          - createddate 
        properties: 
          id: 
            type: integer 
            format: int64 
          name: 
            type: string 
            maxLength: 50 
          region: 
            type: string 
            maxLength: 50 
          createddate: 
            type: string 
            format: date-time 
       car: 
         type: object 
         required: 
           - car_id 
           - color 
           - createddate 
         properties: 
           car_id: 
             type: integer 
             format: int64 
         color:
           type: string 
           maxLength: 50
         createddate: 
           type: string 
           format: date-time 

Enregistrer les données de sortie de flux dans Amazon S3

Disponible dans Tableau Prep Builder 2024.2 et versions ultérieures, dans la création Web et dans Tableau Cloud. Cette fonctionnalité n’est pas encore disponible dans Tableau Server.

Vous pouvez vous connecter aux données à l’aide de n’importe quel connecteur pris en charge par Tableau Prep Builder ou le Web et enregistrer votre sortie de flux sous forme de fichier .parquet ou .csv sur Amazon S3. La sortie peut être enregistrée en tant que nouvelles données ou vous pouvez écraser les données S3 existantes. Pour éviter la perte de données, vous pouvez utiliser l’option SQL personnalisé pour faire une copie des données de votre table et l’exécuter avant d’enregistrer les données de flux dans S3.

La sauvegarde de votre sortie de flux et la connexion au connecteur S3 sont indépendantes l’une de l’autre. Vous ne pouvez pas réutiliser une connexion S3 existante que vous avez utilisée comme connexion d’entrée Tableau Prep.

Le volume total de données et le nombre d’objets que vous pouvez stocker dans Amazon S3 sont illimités. La taille individuelle des objets Amazon S3 peut varier d’un minimum de 0 octet à un maximum de 5 To. La taille maximale d’un objet pouvant être téléversé dans un seul PUT est de 5 Go. Pour les objets de plus de 100 Mo, les clients doivent envisager d’utiliser la fonctionnalité de téléversement partitionné. Voir Téléversement et copie d’objets à l’aide du téléversement partitionné.

Autorisations

Pour écrire dans votre compartiment Amazon S3, vous avez besoin de la région du compartiment, du nom du compartiment, de l’ID de la clé d’accès et de la clé d’accès secrète. Pour obtenir ces clés, vous devrez créer un utilisateur de gestion des identités et des accès (IAM) au sein d’AWS. Consultez Gestion des clés d’accès pour les utilisateurs IAM.

Enregistrer les données de flux dans Amazon S3

  1. Cliquez sur l’icône plus dans une étape et sélectionnez Ajouter une sortie.
  2. Dans la liste déroulante « Enregistrer la sortie dans », sélectionnez Base de données et espace de stockage sur le Cloud.
  3. Dans la section Table > Connexion, sélectionnez Amazon S3 (sortie uniquement).
  4. Dans le formulaire Amazon S3 (sortie uniquement), ajoutez les informations suivantes :
    • ID de clé d’accès : ID de la clé que vous avez utilisé pour signer les demandes que vous envoyez à Amazon S3.
    • Clé d’accès secrète : identifiants de sécurité (mots de passe, clés d’accès) utilisés pour vérifier que vous avez l’autorisation d’accéder à la ressource AWS.
    • Région du compartiment : emplacement du compartiment Amazon S3 (point de terminaison de la région AWS). Par exemple : us-east-2.
    • Nom du compartiment : nom du compartiment S3 dans lequel vous souhaitez écrire la sortie du flux. Les noms de compartiment de deux comptes AWS dans la même région ne peuvent pas être identiques.

    Remarque : Pour trouver votre région S3 et le nom de votre compartiment, connectez-vous à votre compte AWS S3 et accédez à la console AWS S3.

  5. Cliquez sur Connexion.
  6. Dans le champ URI S3, saisissez le nom du fichier .csv ou .parquet. Par défaut, le champ contient la valeur s3://<your_bucket_name> Le nom du fichier doit inclure l’extension .csv ou .parquet.

    Vous pouvez enregistrer la sortie du flux en tant que nouvel objet S3 ou écraser un objet S3 existant.

    • Pour un nouvel objet S3, tapez le nom du fichier .parquet ou .csv. L’URI est affiché dans le texte d’aperçu. Par exemple : s3://<bucket_name><name_file.csv>.
    • Pour écraser un objet S3 existant, saisissez le nom du fichier .parquet ou .csv ou cliquez sur Parcourir pour trouver les fichiers S3 .parquet ou .csv existants.

      Remarque : La fenêtre Parcourir l’objet affichera uniquement les fichiers qui ont été enregistrés lors de connexions précédentes à Amazon S3.

  7. Pour les options d’écriture, un nouvel objet S3 est créé avec les données de votre flux. Si les données existent déjà, toute structure de données ou propriété existante définie pour l’objet est supprimée et remplacée par un nouveau flux de données. Tous les champs existant dans le flux sont ajoutés au nouvel objet S3.
  8. Cliquez sur Exécuter le flux pour exécuter le flux et écrire vos données dans S3.

    Vous pouvez vérifier que les données ont été enregistrées dans S3 en vous connectant à votre compte AWS S3 et en accédant à la console AWS S3.

Merci de vos commentaires!Votre commentaire s été envoyé avec succès. Merci!