Passer au contenu principal
Procore

Prise en main de Procore Analytics 2.0

Connecteur cloud Procore Analytics

Introduction

Cloud Connector est la façon dont Procore partage les données, l’intelligence et l’analyse avec ses clients. Celles-ci peuvent être partagées directement vers des outils de création de rapports tels que Power BI ou Tableau. Elles peuvent également être partagées avec les entrepôts de données, les magasins, les lacs ou d’autres applications des clients. Les clients peuvent même créer un accès programmatique à leurs données à l’aide de Cloud Connector pour une véritable automatisation. Cloud Connector est basé sur le protocole de partage ouvert Delta Share.

Options du connecteur de données guidées Procore Analytics 2.0

Delta Sharing est le premier protocole ouvert de l’industrie pour le partage sécurisé des données, ce qui facilite le partage de données avec d’autres organisations, quelles que soient les plates-formes informatiques qu’elles utilisent.  De nombreuses applications peuvent accéder aux données avec Delta Share. Cependant, pour améliorer encore l’expérience client, Procore a ajouté des connecteurs, du code prédéfini et des guides pour les plates-formes suivantes, réduisant ainsi le temps et la complexité de configuration pour permettre une connexion transparente et prête à l’emploi.

  • SQL Server
    • SSIS Python
    • Bibliothèque Python
    • Étincelle de python
  • Azure
    • ADLS Azure Functions
    • ADLS Python
    • ADLS Spark
    • Usine de données Lakehouse Fabric
    • Carnet de notes en tissu Lakehouse
    • SQL Server Azure Functions
    • Fabrique de données SQL Server Fabric
    • SQL Server Fabric Notebook
  • Briques de données
  • Flocon de neige
  • Amazon S3
  • Guides pour écrire le vôtre (GitHub)

D’autres connecteurs de données seront bientôt disponibles !

Accéder à la documentation et au code

Une documentation complète et des exemples de code sont disponibles dans le produit Procore Analytics directement dans l’application Web Procore accessible par vos administrateurs Procore. Ces ressources fournissent des instructions pas à pas, des extraits de code et les meilleures pratiques pour vous aider à configurer et à gérer efficacement votre intégration de données.

Prochaines étapes

Passez à la section suivante de ce guide pour commencer le processus de configuration. 


Pour toute question supplémentaire ou assistance, veuillez contacter votre gestionnaire de compte ou notre équipe d’assistance.  

Vérifier les autorisations

Remarque
  • Vous devez avoir activé Procore Analytics. 
  • Toute personne disposant d'un accès de niveau « Admin » à Analyses peut accorder à des utilisateurs supplémentaires l'accès à Analyses. 
  • Les utilisateurs doivent disposer d'un accès de niveau « Admin » à l'outil Analyses pour générer un jeton de données. 
  • Toute modification des autorisations d'un utilisateur dans l'annuaire de Procore Analytics prendra jusqu'à 24 heures pour être active.

Vous devez vous assurer que les autorisations appropriées sont assignées pour générer un jeton d'accès afin de pouvoir commencer à connecter vos données Procore à votre solution BI. L'accès à Procore Analytics est lié à vos identifiants de connexion Procore, ce qui vous permet de générer un seul jeton d'accès. Le jeton d'accès est une chaîne de chiffres que vous saisissez dans votre système de BI pour accéder aux données. 

En règle générale, les utilisateurs qui ont besoin de jetons d'accès sont des ingénieurs de données ou des développeurs Power BI.  Si vous avez accès à Procore Analytics dans plusieurs entreprises, votre jeton vous permettra d'extraire les données de toutes. Le jeton est lié à vous, et non à une entreprise en particulier, il reste donc le même pour toutes les entreprises auxquelles vous avez accès.

Les administrateurs de l'entreprise et du projet se verront attribuer un rôle Admin par défaut. Les niveaux d'accès utilisateur suivants sont autorisés pour l'outil Procore Analytics :

  • Aucun : aucun accès aux données Procore Analytics.
  • Admin: dispose des autorisations d'accès complètes aux données pour tous les outils et projets (à l'exception de certaines données marquées comme privées comme les données de correspondance).

Il existe deux façons d'attribuer des autorisations à des utilisateurs individuels :

Révoquer l'accès

L'accès à des données spécifiques d'outils et de projets dans l'outil Procore Analytics sera révoqué lorsque les autorisations correspondantes pour les outils et les projets de l'utilisateur seront supprimées. Lorsque l'enregistrement de contact d'un utilisateur devient inactif, l'utilisateur perd l'accès aux données Procore Analytics.

Générer des informations d’identification d’accès aux données

Pour commencer à accéder à vos données Procore, il existe deux options pour générer vos identifiants d’accès aux données : la méthode de connexion directe Databricks ou la méthode Delta Share Token. Le jeton d’accès est une chaîne de chiffres que vous devez saisir dans votre connecteur de données applicable pour accéder aux données. 

Considérations

  • L’outil Procore Analytics doit être activé. 
  • Par défaut, tous les administrateurs d’entreprise ont un accès de niveau « Admin » aux analyses de l’annuaire. 
  • Toute personne disposant d’un accès de niveau « Admin » à Analytics peut accorder à d’autres utilisateurs l’accès à l’outil Analytics. 
  • Les utilisateurs doivent disposer d’un accès de niveau « Admin » à l’outil Analytics pour générer un jeton de données. 

Procédure

  1. Connectez-vous à Procore. 
  2. Cliquez sur l’icône Compte et profil dans la zone supérieure droite de la barre de navigation.
    Account Icon.png
  3. Cliquez sur Paramètres de mon profil.  
  4. Sous Choisir votre connexion avec Procore Analytics, vous avez deux options pour générer des informations d’identification :
    • Databricks se connecte directement OU génère un jeton d’accès personnel avec Delta Share.
  5. Saisissez votre identificateur de partage Databricks pour la méthode de connexion directe Databricks, puis cliquez sur Se connecter. Pour en savoir plus, consultez Connecter vos données Procore à un espace de travail Databricks
    clipboard_e1d2ed9e3cf25a79f259dba109f03e4ab.png
  6. Pour la méthode token, sélectionnez Delta Share Token (Jeton de partage Delta).
  7. Assurez-vous de choisir une date d’expiration.
  8. Cliquez sur Générer des jetons.
    Important! Il est recommandé de copier et de stocker votre jeton pour référence ultérieure, car Procore ne stocke pas les jetons pour les utilisateurs. 
  9. Vous utiliserez votre jeton de porteur, votre nom de partage, l’URL du serveur de partage Delta et votre version des identifiants de partage pour commencer à accéder à vos données et à les intégrer.
    analytics-generate-token.png
  10. Explorez les sections supplémentaires du Guide de démarrage pour connaître les prochaines étapes de connexion de vos données en fonction de la méthode de connexion de données souhaitée. 
Remarque
  • Le jeton disparaîtra au bout d’une heure ou disparaîtra également si vous quittez la page. Pour générer un nouveau jeton, revenez à l’étape 1. 
  • Il peut s’écouler jusqu’à 24 heures avant que les données ne deviennent visibles.
  • Veuillez ne pas régénérer votre jeton pendant ce temps de traitement, car cela pourrait entraîner des problèmes avec votre jeton.

Charger des rapports dans Power BI (le cas échéant)

  1. Accédez à Procore Analytics dans le menu Outils de votre entreprise.
  2. Accédez à la section Mise en route .
  3. Sous Fichiers Power BI, sélectionnez et téléchargez les rapports Power BI disponibles. 
  4. Connectez-vous au service Power BI à l’aide de vos informations d’identification de connexion Power BI.
  5. Créez un espace de travail dans lequel vous souhaitez stocker les rapports Procore Analytics de votre entreprise. Pour plus d’informations, consultez la documentation de support Power BI de Microsoft .
    Notes: Des exigences en matière de permis peuvent s’appliquer.
  6. Dans l'espace de travail, cliquez sur Charger.
  7. Cliquez maintenant sur Parcourir.
  8. Sélectionnez le fichier de rapport à partir de son emplacement sur votre ordinateur et cliquez sur Ouvrir.
  9. Après avoir chargé le fichier, cliquez sur Filtre et sélectionnez Modèle sémantique.
  10. Passez votre curseur sur la ligne portant le nom du rapport et cliquez sur l’icône points de suspension icon-ellipsis-options-menu3.png verticaux.
  11. Cliquez sur Paramètres.
  12. Sur la page des paramètres, cliquez sur Identifiants de la source de données , puis sur Modifier les identifiants.
  13. Dans la fenêtre « Configurer [Nom du rapport] » qui apparaît, procédez comme suit :
    • Méthode d'authentification : sélectionnez « Clé ». 
    • Clé de compte: saisissez le jeton que vous avez reçu depuis la page de génération de jetons dans Procore. 
    • Paramètre de niveau de confidentialité pour cette source de données: sélectionnez le niveau de confidentialité. Nous vous recommandons de sélectionner « Privé » ou « Entreprise ». Voir la documentation de support de Microsoft Power BI pour plus d'informations sur les niveaux de confidentialité.
  14. Cliquez sur Connexion.
  15. Cliquez sur Refresh et procédez comme suit :
    • Fuseau horaire: sélectionnez le fuseau horaire que vous souhaitez utiliser pour les actualisations de données planifiées.
    • Sous Configurer un programme d’actualisation, basculez le bouton en position ON.
    • Fréquence de rafraîchissement: sélectionnez « Chaque jour ».
    • Heure: cliquez sur Ajouter une autre heure et sélectionnez 7 h 00.
      Note: Vous pouvez ajouter jusqu’à 8 temps d’actualisation.
    • Facultatif:
      • Cochez la case « Envoyer des notifications d'échec d'actualisation au propriétaire de l'ensemble de données » pour envoyer des notifications d'échec d'actualisation.
      • Saisissez les adresses e-mail de tous les autres collègues auxquels vous souhaitez que le système envoie des notifications d'échec d'actualisation.
  16. Cliquez sur Appliquer.
  17. Pour vérifier que les paramètres ont été correctement configurés et que les données du rapport sont correctement actualisées, revenez à la page « Filtrer et sélectionner le modèle sémantique » et procédez comme suit :
    • Passez votre curseur sur la ligne portant le nom du rapport et cliquez sur l'icône de flèche circulaire pour actualiser les données manuellement.
    • Vérifiez la colonne « Actualisé » pour voir s'il y a un avertissement icon-warning-estimating.png icône .
      • Si aucune icône d’avertissement ne s’affiche, les données du rapport sont actualisées avec succès.
      • Si une icône d'avertissement s'affiche, une erreur s'est produite. Cliquez sur l' avertissement icon-warning-estimating.png Cliquez sur l'icône pour afficher plus d'informations sur l'erreur.
  18. Pour supprimer le tableau de bord vide créé automatiquement par le service Power BI, procédez comme suit :
    • Passez votre curseur sur la ligne portant le nom du tableau de bord. Cliquez sur les points de suspension icon-ellipsis-options-menu3.png et cliquez sur Supprimer.
  19. Pour vérifier que le rapport s'affiche correctement, accédez à la page « Tout » ou « Contenu » et cliquez sur le nom du rapport pour afficher le rapport dans le service Power BI.
     Conseil
    Référencez la colonne « Type » pour vous assurer que vous cliquez sur le rapport au lieu d'un autre actif.
  20. Répétez les étapes ci-dessus dans Power BI pour chaque fichier de rapport Procore Analytics.

Se connecter à Power BI Desktop

Remarque
Ces méthodes de connexion sont généralement utilisées par les professionnels de la donnée.

Connectez de nouvelles données

  1. Ouvrez votre bureau Power BI.
  2. Cliquez sur Obtenir des données et sélectionnez Plus. 
  3. Dans la barre de recherche, saisissez « Partage Delta ».
  4. Sélectionnez Delta Sharing, puis cliquez sur Connecter
  5. Saisissez ou collez l’URL Delta Sharing Server que vous avez reçue de Procore.
  6. Cliquez sur OK
  7. Si c'est la première fois que vous vous connectez à cette source, vous serez invité à fournir votre jeton de support de partage Delta.
  8. Cliquez sur Connecter.
  9. Après authentification, sélectionnez les tableaux Procore Analytics que vous souhaitez apporter dans votre rapport Power BI. 
  10. Sélectionnez Charger pour afficher votre rapport ou sélectionner Transformer les données pour effectuer d'autres transformations dans Power Query. 

Se connecter à un modèle existant

  1. Ouvrez Power BI Desktop.
  2. Cliquez sur le menu déroulant Transformer les données et sélectionnez Paramètres de la source de données .
  3. Sélectionnez Modifier les autorisations.
  4. Cliquez sur Modifier.
  5. Saisissez le jeton que vous avez reçu d’Analytics 2.0.
  6. Cliquez sur Actualiser.
  7. Vos colonnes de budget personnalisé apparaîtront désormais dans les tableaux Budget et BudgetSnapshots. 

Se connecter à SQL Server à l’aide de Python (SSIS)

Vue d'ensemble

L’outil d’accès Cloud Connect de Procore Analytics est une interface de ligne de commande (CLI) qui vous aide à configurer et à gérer les transferts de données de Procore vers MS SQL Server. Il se compose de deux composantes principales :

  •  user_exp.py (Utilitaire de configuration de la configuration)
  • delta_share_to_azure_panda.py (Script de synchronisation des données)

Conditions préalables

  • Python et pip installés sur votre système.
  • Accès à Procore Delta Share.
  • Informations d’identification du compte MS SQL Server.
  • Installez les dépendances requises : pip install -r requirements.txt.

Procédure

Configuration initiale

  • Exécutez l’utilitaire de configuration :
    Python user_exp.py

Cela vous aidera à configurer les éléments suivants :

  • Configuration de la source Delta Share
  • Configuration de la cible MS SQL Server
  • Préférences de planification

Synchronisation des données

Après la configuration, vous disposez de deux options pour exécuter la synchronisation des données :

  1. Exécution directe python
    delta_share_to_azure_panda.py
    OU
  2. Exécution programmée
    S’il est configuré lors de l’installation, le travail s’exécutera automatiquement selon votre planning cron.

Delta Share Configuration

  1. Créez un nouveau fichier nommé config.share avec vos informations d’identification Delta Share au format JSON.

{
« shareCredentialsVersion » : 1,
« bearerToken » : « xxxxxxxxxxxxx »,
« endpoint » : « https://nvirginia.cloud.databricks.c... astores/xxxxxx"

 

  1. Obtenir les champs obligatoires :
    Note: Ces informations peuvent être obtenues à partir de l’application Web Procore Analytics.
    • ShareCredentialsVersion : numéro de version (actuellement 1).
    • BearerToken : votre jeton d’accès Delta Share.
    • Point de terminaison : l’URL de votre point de terminaison Delta Share.
    • Enregistrez le fichier dans un emplacement sûr.
  2. Lors de la configuration de la source de données, il vous sera demandé de fournir les informations suivantes :
    • Liste des tableaux (séparés par des virgules).
    • Laissez le champ vide pour synchroniser tous les tableaux.
    • Exemple : 'table1, t able2table3'.
    • Chemin d’accès à votre 'config.share' lime.

MS SQL Server Configuration

Vous devrez fournir les détails MS SQL Server suivants :

  • base de données
  • hôte
  • mot de passe
  • schéma
  • nom d’utilisateur

SSIS Configuration

  1. À l’aide de la ligne de commande, accédez au dossier en entrant'cd <chemin d’accès au <path to the folder> dossier>'.
  2. Installez les paquets requis à l’aide de 'pip install -r requirements.txt' ou 'python -m pip install -r requirements.txt'.
  3. Ouvrez SSIS et créez un nouveau projet.
  4. À partir de la boîte à outils SSIS, faites glisser et déposez l’activité « Exécuter une tâche de processus ».

    analytics-data-connector-sql-ssis.png
  5. Double-cliquez sur « Exécuter la tâche de traitement » et accédez à l’onglet Processus.
  6. Dans 'Exécutable', entrez le chemin d’accès à python.exe dans le dossier d’installation python.
  7. Dans 'WorkingDirectory', entrez un chemin d’accès au dossier contenant le script que vous voulez exécuter (sans le nom du fichier de script).
  8. Dans 'Arguments', entrez le nom du script 'delta_share_to_azure_panda.py' que vous souhaitez exécuter avec le .py extension et enregistrez.

    analytics-sql-ssis2.png
     
  9. Cliquez sur le bouton « Démarrer » dans le volet supérieur :
    analytics-sql-ssis.png
  10. Pendant l’exécution de la tâche, la sortie de la console Python s’affiche dans la fenêtre de la console externe.
  11. Une fois la tâche terminée, une coche verte s’affichera :

    analytics-sql-ssis1.png

Se connecter à SQL Server à l’aide de la bibliothèque Python

Vue d'ensemble

Ce guide fournit des instructions détaillées sur la configuration et l’utilisation du package d’intégration Delta Sharing sur un système d’exploitation Windows afin d’intégrer de manière transparente les données dans vos flux de travail avec Procore Analytics. Le package prend en charge plusieurs options d’exécution, ce qui vous permet de choisir la configuration et la méthode d’intégration souhaitées.

Conditions préalables

Assurez-vous d’avoir les éléments suivants avant de procéder :

  • Procore Analytics 2.0 SKU
  • Delta Sharing fichier pofile :
    Procurez-vous votre fichier *.share contenant les informations d’identification Delta Sharing. Pour plus de commodité, copiez-le dans le répertoire du paquet.
  • Environnement Python : Installez Python 3 et pip sur votre système.

 

Procédure

Préparez le colis

  1. Créez un nouveau fichier nommé config.share avec vos informations d’identification Delta Share au format JSON.

{
« shareCredentialsVersion » : 1,
« bearerToken » : « xxxxxxxxxxxxx »,
« endpoint » : « https://nvirginia.cloud.databricks.c... astores/xxxxxx"

  1. Obtenir les champs obligatoires.
    Note: Ces informations peuvent être obtenues à partir de l’application Web Procore Analytics.
    • ShareCredentialsVersion : numéro de version (actuellement 1).
    • BearerToken : votre jeton d’accès Delta Share.
    • Point de terminaison : l’URL de votre point de terminaison Delta Share.
  2. Téléchargez et extrayez le package.
  3. Décompressez le package dans un répertoire de votre choix.
  4. Copiez le fichier de profil *.share Delta Sharing dans le répertoire du package pour y accéder facilement.
    analytics-sql-windows2.png

Installer les dépendances

  1. Ouvrez un terminal dans le répertoire du package.
  2. Exécutez la commande suivante pour installer les dépendances :
  3. pip install -r requirements.txt

Générer une configuration

  1. Générez le fichier config.yaml en exécutant python user_exp.py:
    Ce script permet de générer le fichier config.yaml qui contient les informations d’identification et les paramètres nécessaires.
  2. Lors de la configuration de la source de données, il vous sera demandé de fournir les informations suivantes :
    • Liste des tableaux (séparés par des virgules).
    • Laissez vide pour synchroniser toutes les tables.
      Exemple : 'table1, table2, table3'.
    • Chemin d’accès à votre 'config.share' lime.
  3. Pour la première fois, vous fournirez vos informations d’identification telles que l’emplacement de configuration de la source Delta Share, les tables, la base de données, l’hôte, etc.
    Note: Ensuite, vous pouvez réutiliser ou mettre à jour la configuration manuellement ou par le user_exp.py python en cours d’exécution.

Configurer les tâches cron et l’exécution immédiate (facultatif)

  1. Décidez s’il faut configurer une tâche cron pour l’exécution automatique.
  2. Fournissez un planning cron :
    • Format : * * * * * (minute, heure, jour du mois, mois, jour de la semaine).
    • Exemple pour une exécution quotidienne à 2 heures du matin : 0 2 * * *
    • Pour vérifier les journaux de planification, le fichier 'procore_scheduling.log' sera créé dès que la planification est configurée.

Vous pouvez également vérifier la planification en exécutant la commande terminal :

Pour Linux et MacOS :    

Pour modifier/supprimer - modifier le cron de la planification à l’aide de :

'''bash
EDITOR=nano crontab -e
'''

  • Après avoir exécuté la commande ci-dessus, vous devriez voir quelque chose de similaire à :
  • 2 * * * * /Utilisateurs/your_user/flocon de neige/venv/bin/python /Utilisateurs/your_user/flocon de neige/sql_server_python/connection_config.py 2>&1 | pendant la ligne de lecture ; do echo « $(date) - $line » ; done >> /Users/your_user/snowflake/sql_server_python/procore_scheduling.log # procore-data-import
  • Vous pouvez également ajuster le cron du planning ou supprimer la ligne entière pour l’empêcher de fonctionner selon le planning.

Pour Windows :

  • Vérifiez que la tâche du planning est créée :
    '''PowerShell
    schtasks /query /tn « ProcoreDeltaShareScheduling » /fo LIST /v

    ```
  • Pour modifier/supprimer - planification de la tâche :
    Ouvrez le planificateur de tâches :
    • Appuyez sur Win + R, tapez taskschd.msc, et appuyez sur Entrée.
    • Accédez aux tâches planifiées.
    • Dans le volet gauche, développez la bibliothèque du planificateur de tâches.
    • Recherchez le dossier dans lequel votre tâche est enregistrée (par exemple, la bibliothèque du planificateur de tâches ou un dossier personnalisé).
  • Trouvez votre tâche :
    • Recherchez le nom de la tâche ProcoreDeltaShareScheduling.
    • Cliquez dessus pour afficher ses détails dans le volet inférieur.
  • Vérifiez son planning :
    • Vérifiez l’onglet Déclencheurs pour voir quand la tâche est définie pour s’exécuter.
    • Consultez l’onglet Historique pour confirmer les exécutions récentes.
  • Pour supprimer une tâche :
    • Supprimer la tâche de l’interface graphique.

Question d’exécution immédiate :

  • Possibilité d’exécuter un script pour copier les données immédiatement après la configuration.
  • Après avoir généré le fichier config.yaml, l’interface de ligne de commande est prête à être exécutée à tout moment indépendamment, en exécutant un script pour copier les données, en fonction de votre package. Voir les exemples ci-dessous :
    Python delta_share_to_azure_panda.py
    OU
    python delta_share_to_sql_spark.py
    OU
    python delta_share_to_azure_dfs_spark.py

Exécution et maintenance

Problèmes courants et solutions

  1. Configuration de la tâche Cron :
    • Assurez-vous que les autorisations système sont correctement configurées.
    • Vérifiez les journaux système si la tâche ne parvient pas à s’exécuter.
    •  Vérifiez que le script delta_share_to_azure_panda.py dispose des autorisations d’exécution.
  2. Fichier de configuration :
    • Assurez-vous que le fichier config.yaml se trouve dans le même répertoire que le script.
    • Sauvegardez le fichier avant d’apporter des modifications.

Support technique

Pour obtenir de l’aide supplémentaire :

  1. Consultez les journaux de script pour obtenir des messages d’erreur détaillés.
  2. Vérifiez que le fichier config.yaml ne contient pas d’erreurs de configuration.
  3. Contactez votre administrateur système pour les problèmes liés aux autorisations.
  4. Contactez le support technique Procore pour les problèmes liés à l’accès à Delta Share.
  5. Examiner le journal pour les tables ayant échoué : failed_tables.log.

Notes

  1. Sauvegardez toujours vos fichiers de configuration avant d’apporter des modifications.
  2. Testez de nouvelles configurations dans un environnement hors production pour éviter les interruptions.

Se connecter à SQL Server à l’aide de Python Spark

Vue d'ensemble

Ce guide fournit des instructions détaillées sur la configuration et l’utilisation du package d’intégration Delta Sharing sur un système d’exploitation Windows afin d’intégrer de manière transparente les données dans vos flux de travail avec Procore Analytics. Le package prend en charge plusieurs options d’exécution, ce qui vous permet de choisir la configuration et la méthode d’intégration souhaitées.

Conditions préalables

Assurez-vous d’avoir les éléments suivants avant de procéder :

  • Procore Analytics 2.0 SKU
  • Delta Sharing fichier pofile :
    Procurez-vous votre fichier *.share contenant les informations d’identification Delta Sharing. Pour plus de commodité, copiez-le dans le répertoire du paquet.
  • Environnement Python : Installez Python 3 et pip sur votre système.

 

Procédure

Préparez le colis

  1. Créez un nouveau fichier nommé config.share avec vos informations d’identification Delta Share au format JSON.

{
« shareCredentialsVersion » : 1,
« bearerToken » : « xxxxxxxxxxxxx »,
« endpoint » : « https://nvirginia.cloud.databricks.c... astores/xxxxxx"

  1. Obtenir les champs obligatoires.
    Note: Ces informations peuvent être obtenues à partir de l’application Web Procore Analytics.
    • ShareCredentialsVersion : numéro de version (actuellement 1).
    • BearerToken : votre jeton d’accès Delta Share.
    • Point de terminaison : l’URL de votre point de terminaison Delta Share.
  2. Téléchargez et extrayez le package.
  3. Décompressez le package dans un répertoire de votre choix.
  4. Copiez le fichier de profil *.share Delta Sharing dans le répertoire du package pour y accéder facilement.
    analytics-sql-windows2.png

Installer les dépendances

  1. Ouvrez un terminal dans le répertoire du package.
  2. Exécutez la commande suivante pour installer les dépendances :
  3. pip install -r requirements.txt

Générer une configuration

  1. Générez le fichier config.yaml en exécutant python user_exp.py:
    Ce script permet de générer le fichier config.yaml qui contient les informations d’identification et les paramètres nécessaires.
  2. Lors de la configuration de la source de données, il vous sera demandé de fournir les informations suivantes :
    • Liste des tableaux (séparés par des virgules).
    • Laissez vide pour synchroniser toutes les tables.
      Exemple : 'table1, table2, table3'.
    • Chemin d’accès à votre 'config.share' lime.
  3. Pour la première fois, vous fournirez vos informations d’identification telles que l’emplacement de configuration de la source Delta Share, les tables, la base de données, l’hôte, etc.
    Note: Ensuite, vous pouvez réutiliser ou mettre à jour la configuration manuellement ou par le user_exp.py python en cours d’exécution.

Configurer les tâches cron et l’exécution immédiate (facultatif)

  1. Décidez s’il faut configurer une tâche cron pour l’exécution automatique.
  2. Fournissez un planning cron :
    • Format : * * * * * (minute, heure, jour du mois, mois, jour de la semaine).
    • Exemple pour une exécution quotidienne à 2 heures du matin : 0 2 * * *
    • Pour vérifier les journaux de planification, le fichier 'procore_scheduling.log' sera créé dès que la planification est configurée.

Vous pouvez également vérifier la planification en exécutant la commande terminal :

Pour Linux et MacOS :    

Pour modifier/supprimer - modifier le cron de la planification à l’aide de :

'''bash
EDITOR=nano crontab -e
'''

  • Après avoir exécuté la commande ci-dessus, vous devriez voir quelque chose de similaire à :
  • 2 * * * * /Utilisateurs/your_user/flocon de neige/venv/bin/python /Utilisateurs/your_user/flocon de neige/sql_server_python/connection_config.py 2>&1 | pendant la ligne de lecture ; do echo « $(date) - $line » ; done >> /Users/your_user/snowflake/sql_server_python/procore_scheduling.log # procore-data-import
  • Vous pouvez également ajuster le cron du planning ou supprimer la ligne entière pour l’empêcher de fonctionner selon le planning.

Pour Windows :

  • Vérifiez que la tâche du planning est créée :
    '''PowerShell
    schtasks /query /tn « ProcoreDeltaShareScheduling » /fo LIST /v

    ```
  • Pour modifier/supprimer - planification de la tâche :
    Ouvrez le planificateur de tâches :
    • Appuyez sur Win + R, tapez taskschd.msc, et appuyez sur Entrée.
    • Accédez aux tâches planifiées.
    • Dans le volet gauche, développez la bibliothèque du planificateur de tâches.
    • Recherchez le dossier dans lequel votre tâche est enregistrée (par exemple, la bibliothèque du planificateur de tâches ou un dossier personnalisé).
  • Trouvez votre tâche :
    • Recherchez le nom de la tâche ProcoreDeltaShareScheduling.
    • Cliquez dessus pour afficher ses détails dans le volet inférieur.
  • Vérifiez son planning :
    • Vérifiez l’onglet Déclencheurs pour voir quand la tâche est définie pour s’exécuter.
    • Consultez l’onglet Historique pour confirmer les exécutions récentes.
  • Pour supprimer une tâche :
    • Supprimer la tâche de l’interface graphique.

Question d’exécution immédiate :

  • Possibilité d’exécuter un script pour copier les données immédiatement après la configuration.
  • Après avoir généré le fichier config.yaml, l’interface de ligne de commande est prête à être exécutée à tout moment indépendamment, en exécutant un script pour copier les données, en fonction de votre package. Voir les exemples ci-dessous :
    Python delta_share_to_azure_panda.py
    OU
    python delta_share_to_sql_spark.py
    OU
    python delta_share_to_azure_dfs_spark.py

Exécution et maintenance

Problèmes courants et solutions

  1. Configuration de la tâche Cron :
    • Assurez-vous que les autorisations système sont correctement configurées.
    • Vérifiez les journaux système si la tâche ne parvient pas à s’exécuter.
    •  Vérifiez que le script delta_share_to_azure_panda.py dispose des autorisations d’exécution.
  2. Fichier de configuration :
    • Assurez-vous que le fichier config.yaml se trouve dans le même répertoire que le script.
    • Sauvegardez le fichier avant d’apporter des modifications.

Support technique

Pour obtenir de l’aide supplémentaire :

  1. Consultez les journaux de script pour obtenir des messages d’erreur détaillés.
  2. Vérifiez que le fichier config.yaml ne contient pas d’erreurs de configuration.
  3. Contactez votre administrateur système pour les problèmes liés aux autorisations.
  4. Contactez le support technique Procore pour les problèmes liés à l’accès à Delta Share.
  5. Examiner le journal pour les tables ayant échoué : failed_tables.log.

Notes

  1. Sauvegardez toujours vos fichiers de configuration avant d’apporter des modifications.
  2. Testez de nouvelles configurations dans un environnement hors production pour éviter les interruptions.

Se connecter à ADLS à l’aide d’Azure Functions

Vue d'ensemble

Ce guide vous guide tout au long de la configuration et du déploiement d’une fonction Azure pour l’intégration de données Delta Sharing à Procore Analytics. La fonction Azure permet un traitement efficace des données et des flux de travail de partage avec les profils Delta Sharing.

Conditions préalables

  • Référence SKU Procore Analytics 2.0.
  • Fichier de profil Delta Sharing :
    • Votre fichier *.share contenant les informations d’identification Delta Sharing. Pour plus de commodité, placez-le à l’intérieur du package téléchargé.
    • Environnement Python :
      • Python 3.9+ et pip installés sur votre système - effectué.
  •  Configuration d’Azure :
    • Azure CLI installé et connecté.
    • Outils principaux Azure Functions installés.

Procédure

Préparez le colis

  1. Téléchargez le package requis (adls_azure_function ou sql_server_azure_function).
  2. Extrayez les fichiers du package dans un répertoire local.
  3. Placer le fichier de partage Delta :
    • Copiez votre fichier de profil *.share Delta Sharing dans le répertoire extrait.

 Installer les dépendances

  1. Ouvrez un terminal dans le répertoire du package.
  2. Exécutez la commande suivante pour installer les dépendances Python requises :
    • pip install -r requirements.txt

Générer une configuration

  1. Générez le fichier config.yaml en exécutant :
    • Python user_exp.py
  2. Le script vous demandera d’entrer des informations d’identification telles que :
    • Tables
    • Nom de la base de données
    • Hôte
    • Justificatifs d’identité supplémentaires.
  3. La configuration peut être réutilisée ou mise à jour manuellement ou en réexécutant python user_exp.py.

 Configuration de l’interface de ligne de commande Azure

  1. Connectez-vous à Azure.
  2. Exécutez la commande suivante pour vous connecter :
    az login
  3. Vérifier le compte Azure :Verify Azure account :
    • az account show
    • Si la commande az n’est pas disponible, installez l’interface de ligne de commande Azure en suivant les instructions fournies ici : Microsoft Learn.

Installer les outils principaux d’Azure Functions

Atteindre

to pour obtenir des directives sur l’installation des outils principaux Azure Functions.

Préparer la fonction Azure

  1. UtiliserPour créer ce qui suit :
    • Une application fonctionnelle
    • Un groupe de ressources
    • Plan de consommation
    • Compte de stockage
  2. Définissez un planning Cron personnalisé (facultatif).
    • Ouvrez function_app.py dans un éditeur.
    • Localisez la ligne : @app.timer_trigger(schedule="0 0 */8 * * *",
  3. Remplacez la planification par votre expression Cron personnalisée et enregistrez le fichier.

Déploiement

  1. Ouvrez un terminal dans le répertoire du paquet (adls_azure_function).
  2. Exécutez la commande de déploiement suivante :
    • func azure functionapp publish <FunctionAppName> --build remote --python --clean
  3. Remplacez <FunctionAppName> par le nom de votre application de fonction Azure dans votre abonnement Azure.

Validation

  • Assurez-vous que le déploiement réussit en vérifiant l’état de votre application de fonction dans le portail Azure.
  • Surveillez les journaux pour vérifier que la fonction s’exécute comme prévu.

 

Se connecter à ADLS à l’aide de Python

Vue d'ensemble

Ce guide fournit des instructions détaillées sur la configuration et l’utilisation du package d’intégration Delta Sharing sur un système d’exploitation Windows afin d’intégrer de manière transparente les données dans vos flux de travail avec Procore Analytics. Le package prend en charge plusieurs options d’exécution, ce qui vous permet de choisir la configuration et la méthode d’intégration souhaitées.

Conditions préalables

Assurez-vous d’avoir les éléments suivants avant de procéder :

  • Procore Analytics 2.0 SKU
  • Delta Sharing fichier pofile :
    Procurez-vous votre fichier *.share contenant les informations d’identification Delta Sharing. Pour plus de commodité, copiez-le dans le répertoire du paquet.
  • Environnement Python : Installez Python 3 et pip sur votre système.

 

Procédure

Préparez le colis

  1. Créez un nouveau fichier nommé config.share avec vos informations d’identification Delta Share au format JSON.

{
« shareCredentialsVersion » : 1,
« bearerToken » : « xxxxxxxxxxxxx »,
« endpoint » : « https://nvirginia.cloud.databricks.c... astores/xxxxxx"

  1. Obtenir les champs obligatoires.
    Note: Ces informations peuvent être obtenues à partir de l’application Web Procore Analytics.
    • ShareCredentialsVersion : numéro de version (actuellement 1).
    • BearerToken : votre jeton d’accès Delta Share.
    • Point de terminaison : l’URL de votre point de terminaison Delta Share.
  2. Téléchargez et extrayez le package.
  3. Décompressez le package dans un répertoire de votre choix.
  4. Copiez le fichier de profil *.share Delta Sharing dans le répertoire du package pour y accéder facilement.
    analytics-sql-windows2.png

Installer les dépendances

  1. Ouvrez un terminal dans le répertoire du package.
  2. Exécutez la commande suivante pour installer les dépendances :
  3. pip install -r requirements.txt

Générer une configuration

  1. Générez le fichier config.yaml en exécutant python user_exp.py:
    Ce script permet de générer le fichier config.yaml qui contient les informations d’identification et les paramètres nécessaires.
  2. Lors de la configuration de la source de données, il vous sera demandé de fournir les informations suivantes :
    • Liste des tableaux (séparés par des virgules).
    • Laissez vide pour synchroniser toutes les tables.
      Exemple : 'table1, table2, table3'.
    • Chemin d’accès à votre 'config.share' lime.
  3. Pour la première fois, vous fournirez vos informations d’identification telles que l’emplacement de configuration de la source Delta Share, les tables, la base de données, l’hôte, etc.
    Note: Ensuite, vous pouvez réutiliser ou mettre à jour la configuration manuellement ou par le user_exp.py python en cours d’exécution.

Configurer les tâches cron et l’exécution immédiate (facultatif)

  1. Décidez s’il faut configurer une tâche cron pour l’exécution automatique.
  2. Fournissez un planning cron :
    • Format : * * * * * (minute, heure, jour du mois, mois, jour de la semaine).
    • Exemple pour une exécution quotidienne à 2 heures du matin : 0 2 * * *
    • Pour vérifier les journaux de planification, le fichier 'procore_scheduling.log' sera créé dès que la planification est configurée.

Vous pouvez également vérifier la planification en exécutant la commande terminal :

Pour Linux et MacOS :    

Pour modifier/supprimer - modifier le cron de la planification à l’aide de :

'''bash
EDITOR=nano crontab -e
'''

  • Après avoir exécuté la commande ci-dessus, vous devriez voir quelque chose de similaire à :
  • 2 * * * * /Utilisateurs/your_user/flocon de neige/venv/bin/python /Utilisateurs/your_user/flocon de neige/sql_server_python/connection_config.py 2>&1 | pendant la ligne de lecture ; do echo « $(date) - $line » ; done >> /Users/your_user/snowflake/sql_server_python/procore_scheduling.log # procore-data-import
  • Vous pouvez également ajuster le cron du planning ou supprimer la ligne entière pour l’empêcher de fonctionner selon le planning.

Pour Windows :

  • Vérifiez que la tâche du planning est créée :
    '''PowerShell
    schtasks /query /tn « ProcoreDeltaShareScheduling » /fo LIST /v

    ```
  • Pour modifier/supprimer - planification de la tâche :
    Ouvrez le planificateur de tâches :
    • Appuyez sur Win + R, tapez taskschd.msc, et appuyez sur Entrée.
    • Accédez aux tâches planifiées.
    • Dans le volet gauche, développez la bibliothèque du planificateur de tâches.
    • Recherchez le dossier dans lequel votre tâche est enregistrée (par exemple, la bibliothèque du planificateur de tâches ou un dossier personnalisé).
  • Trouvez votre tâche :
    • Recherchez le nom de la tâche ProcoreDeltaShareScheduling.
    • Cliquez dessus pour afficher ses détails dans le volet inférieur.
  • Vérifiez son planning :
    • Vérifiez l’onglet Déclencheurs pour voir quand la tâche est définie pour s’exécuter.
    • Consultez l’onglet Historique pour confirmer les exécutions récentes.
  • Pour supprimer une tâche :
    • Supprimer la tâche de l’interface graphique.

Question d’exécution immédiate :

  • Possibilité d’exécuter un script pour copier les données immédiatement après la configuration.
  • Après avoir généré le fichier config.yaml, l’interface de ligne de commande est prête à être exécutée à tout moment indépendamment, en exécutant un script pour copier les données, en fonction de votre package. Voir les exemples ci-dessous :
    Python delta_share_to_azure_panda.py
    OU
    python delta_share_to_sql_spark.py
    OU
    python delta_share_to_azure_dfs_spark.py

Exécution et maintenance

Problèmes courants et solutions

  1. Configuration de la tâche Cron :
    • Assurez-vous que les autorisations système sont correctement configurées.
    • Vérifiez les journaux système si la tâche ne parvient pas à s’exécuter.
    •  Vérifiez que le script delta_share_to_azure_panda.py dispose des autorisations d’exécution.
  2. Fichier de configuration :
    • Assurez-vous que le fichier config.yaml se trouve dans le même répertoire que le script.
    • Sauvegardez le fichier avant d’apporter des modifications.

Support technique

Pour obtenir de l’aide supplémentaire :

  1. Consultez les journaux de script pour obtenir des messages d’erreur détaillés.
  2. Vérifiez que le fichier config.yaml ne contient pas d’erreurs de configuration.
  3. Contactez votre administrateur système pour les problèmes liés aux autorisations.
  4. Contactez le support technique Procore pour les problèmes liés à l’accès à Delta Share.
  5. Examiner le journal pour les tables ayant échoué : failed_tables.log.

Notes

  1. Sauvegardez toujours vos fichiers de configuration avant d’apporter des modifications.
  2. Testez de nouvelles configurations dans un environnement hors production pour éviter les interruptions.

 

Se connecter à ADLS à l’aide de Spark

Vue d'ensemble

Ce guide fournit des instructions détaillées sur la configuration et l’utilisation du package d’intégration Delta Sharing sur un système d’exploitation Windows afin d’intégrer de manière transparente les données dans vos flux de travail avec Procore Analytics. Le package prend en charge plusieurs options d’exécution, ce qui vous permet de choisir la configuration et la méthode d’intégration souhaitées.

Conditions préalables

Assurez-vous d’avoir les éléments suivants avant de procéder :

  • Procore Analytics 2.0 SKU
  • Delta Sharing fichier pofile :
    Procurez-vous votre fichier *.share contenant les informations d’identification Delta Sharing. Pour plus de commodité, copiez-le dans le répertoire du paquet.
  • Environnement Python : Installez Python 3 et pip sur votre système.

 

Procédure

Préparez le colis

  1. Créez un nouveau fichier nommé config.share avec vos informations d’identification Delta Share au format JSON.

{
« shareCredentialsVersion » : 1,
« bearerToken » : « xxxxxxxxxxxxx »,
« endpoint » : « https://nvirginia.cloud.databricks.c... astores/xxxxxx"

  1. Obtenir les champs obligatoires.
    Note: Ces informations peuvent être obtenues à partir de l’application Web Procore Analytics.
    • ShareCredentialsVersion : numéro de version (actuellement 1).
    • BearerToken : votre jeton d’accès Delta Share.
    • Point de terminaison : l’URL de votre point de terminaison Delta Share.
  2. Téléchargez et extrayez le package.
  3. Décompressez le package dans un répertoire de votre choix.
  4. Copiez le fichier de profil *.share Delta Sharing dans le répertoire du package pour y accéder facilement.
    analytics-sql-windows2.png

Installer les dépendances

  1. Ouvrez un terminal dans le répertoire du package.
  2. Exécutez la commande suivante pour installer les dépendances :
  3. pip install -r requirements.txt

Générer une configuration

  1. Générez le fichier config.yaml en exécutant python user_exp.py:
    Ce script permet de générer le fichier config.yaml qui contient les informations d’identification et les paramètres nécessaires.
  2. Lors de la configuration de la source de données, il vous sera demandé de fournir les informations suivantes :
    • Liste des tableaux (séparés par des virgules).
    • Laissez vide pour synchroniser toutes les tables.
      Exemple : 'table1, table2, table3'.
    • Chemin d’accès à votre 'config.share' lime.
  3. Pour la première fois, vous fournirez vos informations d’identification telles que l’emplacement de configuration de la source Delta Share, les tables, la base de données, l’hôte, etc.
    Note: Ensuite, vous pouvez réutiliser ou mettre à jour la configuration manuellement ou par le user_exp.py python en cours d’exécution.

Configurer les tâches cron et l’exécution immédiate (facultatif)

  1. Décidez s’il faut configurer une tâche cron pour l’exécution automatique.
  2. Fournissez un planning cron :
    • Format : * * * * * (minute, heure, jour du mois, mois, jour de la semaine).
    • Exemple pour une exécution quotidienne à 2 heures du matin : 0 2 * * *
    • Pour vérifier les journaux de planification, le fichier 'procore_scheduling.log' sera créé dès que la planification est configurée.

Vous pouvez également vérifier la planification en exécutant la commande terminal :

Pour Linux et MacOS :    

Pour modifier/supprimer - modifier le cron de la planification à l’aide de :

'''bash
EDITOR=nano crontab -e
'''

  • Après avoir exécuté la commande ci-dessus, vous devriez voir quelque chose de similaire à :
  • 2 * * * * /Utilisateurs/your_user/flocon de neige/venv/bin/python /Utilisateurs/your_user/flocon de neige/sql_server_python/connection_config.py 2>&1 | pendant la ligne de lecture ; do echo « $(date) - $line » ; done >> /Users/your_user/snowflake/sql_server_python/procore_scheduling.log # procore-data-import
  • Vous pouvez également ajuster le cron du planning ou supprimer la ligne entière pour l’empêcher de fonctionner selon le planning.

Pour Windows :

  • Vérifiez que la tâche du planning est créée :
    '''PowerShell
    schtasks /query /tn « ProcoreDeltaShareScheduling » /fo LIST /v

    ```
  • Pour modifier/supprimer - planification de la tâche :
    Ouvrez le planificateur de tâches :
    • Appuyez sur Win + R, tapez taskschd.msc, et appuyez sur Entrée.
    • Accédez aux tâches planifiées.
    • Dans le volet gauche, développez la bibliothèque du planificateur de tâches.
    • Recherchez le dossier dans lequel votre tâche est enregistrée (par exemple, la bibliothèque du planificateur de tâches ou un dossier personnalisé).
  • Trouvez votre tâche :
    • Recherchez le nom de la tâche ProcoreDeltaShareScheduling.
    • Cliquez dessus pour afficher ses détails dans le volet inférieur.
  • Vérifiez son planning :
    • Vérifiez l’onglet Déclencheurs pour voir quand la tâche est définie pour s’exécuter.
    • Consultez l’onglet Historique pour confirmer les exécutions récentes.
  • Pour supprimer une tâche :
    • Supprimer la tâche de l’interface graphique.

Question d’exécution immédiate :

  • Possibilité d’exécuter un script pour copier les données immédiatement après la configuration.
  • Après avoir généré le fichier config.yaml, l’interface de ligne de commande est prête à être exécutée à tout moment indépendamment, en exécutant un script pour copier les données, en fonction de votre package. Voir les exemples ci-dessous :
    Python delta_share_to_azure_panda.py
    OU
    python delta_share_to_sql_spark.py
    OU
    python delta_share_to_azure_dfs_spark.py

Exécution et maintenance

Problèmes courants et solutions

  1. Configuration de la tâche Cron :
    • Assurez-vous que les autorisations système sont correctement configurées.
    • Vérifiez les journaux système si la tâche ne parvient pas à s’exécuter.
    •  Vérifiez que le script delta_share_to_azure_panda.py dispose des autorisations d’exécution.
  2. Fichier de configuration :
    • Assurez-vous que le fichier config.yaml se trouve dans le même répertoire que le script.
    • Sauvegardez le fichier avant d’apporter des modifications.

Support technique

Pour obtenir de l’aide supplémentaire :

  1. Consultez les journaux de script pour obtenir des messages d’erreur détaillés.
  2. Vérifiez que le fichier config.yaml ne contient pas d’erreurs de configuration.
  3. Contactez votre administrateur système pour les problèmes liés aux autorisations.
  4. Contactez le support technique Procore pour les problèmes liés à l’accès à Delta Share.
  5. Examiner le journal pour les tables ayant échoué : failed_tables.log.

Notes

  1. Sauvegardez toujours vos fichiers de configuration avant d’apporter des modifications.
  2. Testez de nouvelles configurations dans un environnement hors production pour éviter les interruptions.

 

Se connecter à Fabric Lakehouse à l’aide de Data Factory

Vue d'ensemble

L’intégration de Delta Sharing à Microsoft Fabric Data Factory permet un accès et un traitement transparents des tables Delta partagées pour vos flux de travail d’analyse avec Procore Analytics 2.0. Delta Sharing, un protocole ouvert pour une collaboration sécurisée des données, garantit que les organisations peuvent partager des données sans duplication.

Conditions préalables

  •  Procore Analytics 2.0 SKU
  • Identifiants de partage Delta:
    • Procurez-vous le share.json (ou équivalent) fichier d’informations d’identification Delta Sharing auprès de votre fournisseur de données.
    • Ce fichier doit comprendre :
      • URL du point de terminaison : L’URL du serveur de partage Delta.
      • Jeton au porteur : Utilisé pour un accès sécurisé aux données.
  • Configuration de Microsoft Fabric :
    • Un compte de locataire Microsoft Fabric avec un abonnement actif.
    • Accès à un espace de travail compatible avec Microsoft Fabric.

Procédure

Passer à l’expérience Data Factory

  1. Accédez à votre espace de travail Microsoft Fabric.
    clipboard_efd065fed3e214b84c9b311d011d8ae67.png
     
  2. Sélectionnez Nouveau, puis choisissez Flux de données Gen2.
    clipboard_e73cb72aa551cc8730795b5bd53bb8a7a.png

Configurer le flux de données

  1. Accédez à l’éditeur de flux de données.
  2. Cliquez sur Obtenir des données et sélectionnez Plus.
  3. Sous Nouvelle source, sélectionnez Delta Sharing Other comme source de données.
    clipboard_efb6b95e01a2211ba291f186035b8b4ab.png
  4. Saisissez les informations suivantes :
    • URL: à partir de votre fichier de configuration Delta Sharing.
    • Jeton du porteur: trouvé dans votre fichier config.share.
      clipboard_eb997dd0c67cf6e2bcf47cfc9d7e5d71c.png
  5. Cliquez sur Suivant et sélectionnez les tableaux souhaités.
  6. Cliquez sur Créer pour terminer la configuration.

Effectuer des transformations de données

Après avoir configuré le flux de données, vous pouvez maintenant appliquer des transformations aux données Delta partagées. Choisissez votre option Delta Sharing Data dans la liste ci-dessous :

  • Ajouter une destination de données
  • Créer/Ouvrir Lakehouse

Ajouter une destination de données

  1. Accédez à Data Factory.
  2. Cliquez sur Ajouter une destination de données.
  3. Sélectionnez Lakehouse comme cible et cliquez sur Suivant.
  4. Choisissez votre cible de destination et confirmez en cliquant sur Suivant.

Créer-Ouvrir Lakehouse

  1. Créez/ouvrez votreLakehouse et cliquez sur Obtenir des données.
  2. Sélectionnez Nouveau flux de données de 2e génération.
  3. Cliquez sur Obtenir des données, puis sur Plus et recherchez Partage Delta.
  4. Entrez le jeton du porteur d’URL à partir de votre fichier config.share, puis sélectionnez Next.
  5. Choisissez vos données/table(s) à télécharger et cliquez sur Suivant.
  6. Après ces manipulations, vous devriez avoir toutes les données sélectionnées dans votre Fabric Lakehouse.

Validation et surveillance

Testez vos pipelines et flux de données pour garantir une exécution fluide. Utilisez les outils de surveillance de Data
Factory pour suivre la progression et les journaux de chaque activité.

Connectez-vous à Fabric Lakehouse à l’aide de blocs-notes Fabric

Vue d'ensemble

L’utilisation de Data Factory dans Microsoft Fabric avec Delta Sharing permet une intégration et un traitement transparents des tables Delta partagées dans le cadre de vos flux de travail d’analyse avec Procore Analytics 2.0. Delta Sharing est un protocole ouvert pour le partage sécurisé des données, permettant la collaboration entre les organisations sans dupliquer les données.

Ce guide vous guide tout au long des étapes de configuration et d’utilisation de Data Factory dans Fabric avec Delta Sharing, à l’aide de blocs-notes pour le traitement et l’exportation de données vers un Lakehouse.

Conditions préalables

  • Procore Analytics 2.0 SKU
  • Identifiants de partage Delta :
    • Accès aux informations d’identification Delta Sharing fournies par un fournisseur de données.
    • Un fichier de profil de partage (config.share) contenant:
      • URL du point de terminaison (URL du serveur de partage Delta).
      • Jeton d’accès (jeton du porteur pour un accès sécurisé aux données).
  • Créez votre fichier config.yaml avec des informations d’identification spécifiques.
  • Environnement Microsoft Fabric :
    • Un compte de locataire Microsoft Fabric avec un abonnement actif.
    • Un espace de travail compatible avec Fabric.
  • Packages et scripts :
    • Téléchargez le package fabric-lakehouse. Le répertoire doit comprendre :
      • ds_to_lakehouse.py : Code du bloc-notes.
      • readme.md : Instructions.

Procédure

Configurer la configuration

  1. Créez le fichier config.yaml et définissez la configuration dans la structure suivante
    source_config :
        config_path : chemin/vers/votre/fichier-d’identifiants-de-partage-delta.share
    tables : # Facultatif - Laisser vide pour traiter toutes les tables
        - table_name1
        - table_name2
    target_config :
        lakehouse_path : chemin/vers/votre/tissu/lakehouse/tables/ # chemin vers le tissu lakehouse

Configurez votre maison au bord du lac

  1. Ouvrez votre espace de travail Microsoft Fabric.
  2. Accédez à votre Lakehouse et cliquez sur Ouvrir le bloc-notes, puis sur Nouveau bloc-notes.
  3. Si vous ne connaissez pas la valeur dans config.yaml#lakehouse_path, Vous pouvez le copier à partir de l’écran.
  4. Cliquez sur les points de suspension sur Fichiers et sélectionnez Copier le chemin ABFS:
    clipboard_e5dd266d8c6a622cceb30dd893a9106d7.png
    clipboard_e08827dbe6aeae6ac8f2bec7f5c758325.png
    clipboard_e390331535300f7f89fd0a91c9a3adebe.png

3. Copiez le code de ds_to_lakehouse.py et collez-le dans la fenêtre du bloc-notes (Pyspark Python) :

clipboard_e5b5d27813f9bebdfbe7dae73291cb3ae.png

L’étape suivante consiste à charger vos propres fichiers config.yaml et config.share dans le dossier Resources de Lakehouse. Vous pouvez créer votre propre répertoire ou utiliser un répertoire intégré (déjà créé pour les ressources par Lakehouse) :


clipboard_eb5765c4bbf3ac93bd7c51ba6373f8049.png
clipboard_e86d913b62d37d237524537676680e4f3.png

L’exemple ci-dessous montre un répertoire intégré standard pour un fichier config.yaml .
Remarque : assurez-vous de charger les deux fichiers au même niveau et pour la propriété config_path:

clipboard_e8ca378a5a0937b4b675d00adc2ec965f.png

4. Vérifiez le code du cahier, lignes 170-175.
L’exemple ci-dessous montre les modifications de ligne nécessaires :

config_path = « ./env/config.yaml »

À 

config_path = « ./builtin/config.yaml»

Étant donné que les fichiers se trouvent dans un dossier intégré et non dans un environnement personnalisé, assurez-vous de surveiller votre propre structure des fichiers. Vous pouvez les charger dans différents dossiers, mais dans ce cas, mettez à jour le code du bloc-notes pour rechercher correctement le fichier config.yaml .
 

clipboard_e44e5ad3be4a06929aba88716b0fdaa23.png

5. Cliquez sur Exécuter la cellule :


clipboard_e381c59ce2e4e9471efc0e9e4cc663b6d.png

Validation

  • Une fois le travail terminé, vérifiez que les données ont bien été copiées dans votre Lakehouse.
  • Vérifiez les tables spécifiées et assurez-vous que les données correspondent aux tables Delta partagées.
  • Attendez que le travail soit terminé, il devrait copier toutes les données.

Se connecter à SQL Server à l’aide d’Azure Functions

Vue d'ensemble

Ce guide vous guide tout au long de la configuration et du déploiement d’une fonction Azure pour l’intégration de données Delta Sharing à Procore Analytics. La fonction Azure permet un traitement efficace des données et des flux de travail de partage avec les profils Delta Sharing.

Conditions préalables

  • Référence SKU Procore Analytics 2.0.
  • Fichier de profil Delta Sharing :
    • Votre fichier *.share contenant les informations d’identification Delta Sharing. Pour plus de commodité, placez-le à l’intérieur du package téléchargé.
    • Environnement Python :
      • Python 3.9+ et pip installés sur votre système - effectué.
  •  Configuration d’Azure :
    • Azure CLI installé et connecté.
    • Outils principaux Azure Functions installés.

Procédure

Préparez le colis

  1. Téléchargez le package requis (adls_azure_function ou sql_server_azure_function).
  2. Extrayez les fichiers du package dans un répertoire local.
  3. Placer le fichier de partage Delta :
    • Copiez votre fichier de profil *.share Delta Sharing dans le répertoire extrait.

 Installer les dépendances

  1. Ouvrez un terminal dans le répertoire du package.
  2. Exécutez la commande suivante pour installer les dépendances Python requises :
    • pip install -r requirements.txt

Générer une configuration

  1. Générez le fichier config.yaml en exécutant :
    • Python user_exp.py
  2. Le script vous demandera d’entrer des informations d’identification telles que :
    • Tables
    • Nom de la base de données
    • Hôte
    • Justificatifs d’identité supplémentaires.
  3. La configuration peut être réutilisée ou mise à jour manuellement ou en réexécutant python user_exp.py.

 Configuration de l’interface de ligne de commande Azure

  1. Connectez-vous à Azure.
  2. Exécutez la commande suivante pour vous connecter :
    az login
  3. Vérifier le compte Azure :Verify Azure account :
    • az account show
    • Si la commande az n’est pas disponible, installez l’interface de ligne de commande Azure en suivant les instructions fournies ici : Microsoft Learn.

Installer les outils principaux d’Azure Functions

Atteindre

to pour obtenir des directives sur l’installation des outils principaux Azure Functions.

Préparer la fonction Azure

  1. UtiliserPour créer ce qui suit :
    • Une application fonctionnelle
    • Un groupe de ressources
    • Plan de consommation
    • Compte de stockage
  2. Définissez un planning Cron personnalisé (facultatif).
    • Ouvrez function_app.py dans un éditeur.
    • Localisez la ligne : @app.timer_trigger(schedule="0 0 */8 * * *",
  3. Remplacez la planification par votre expression Cron personnalisée et enregistrez le fichier.

Déploiement

  1. Ouvrez un terminal dans le répertoire du paquet (adls_azure_function).
  2. Exécutez la commande de déploiement suivante :
    • func azure functionapp publish <FunctionAppName> --build remote --python --clean
  3. Remplacez <FunctionAppName> par le nom de votre application de fonction Azure dans votre abonnement Azure.

Validation

  • Assurez-vous que le déploiement réussit en vérifiant l’état de votre application de fonction dans le portail Azure.
  • Surveillez les journaux pour vérifier que la fonction s’exécute comme prévu.

Se connecter à SQL Server à l’aide de Data Factory

Vue d'ensemble

Ce document fournit des instructions pas à pas pour configurer un pipeline de données dans Microsoft Fabric afin de transférer des données de Delta Share vers un entrepôt SQL. Cette configuration permet une intégration transparente des données entre les sources Delta Lake et les destinations SQL.

Conditions préalables

  • Compte Microsoft Fabric actif avec les autorisations appropriées.
  • Informations d’identification Delta Share.
  • Informations d’identification de l’entrepôt SQL.
  • Accès au flux de données Gen2 dans Fabric.

Procédure

Accéder au flux de données Gen2

  1. Connectez-vous à votre compte Microsoft Fabric.
  2. Accédez à l’espace de travail.
  3. Sélectionnez « Flux de données Gen2 » parmi les options disponibles.

Configurer la source de données

  1. Cliquez sur « Données provenant d’une autre source » pour commencer la configuration.
  2. À partir de l’écran Obtenir des données, procédez comme suit :
    • Repérez la barre de recherche intitulée « Choisir une source de données ».
    • Saisissez « partage delta » dans le champ de recherche.
    • Sélectionnez Delta Sharing dans les résultats.

Configurer la connexion Delta Share

  1. Saisissez vos informations d’identification Delta Share lorsque vous y êtes invité.
    • Assurez-vous que tous les champs obligatoires sont remplis avec exactitude.
    • Validez la connexion si possible.
  2. Cliquez sur « Suivant » pour continuer.
  3. Consultez la liste des tableaux disponibles :
    • Tous les tableaux auxquels vous avez accès seront affichés.
    • Sélectionnez les tables que vous souhaitez transférer.

Configurer la destination des données

  1. Cliquez sur « Ajouter une destination de données ».
  2. Sélectionnez « Entrepôt SQL » comme destination.
  3. Entrez les informations d’identification SQL :
    • Détails du serveur.
    • Informations d’authentification.
    • Spécifications de la base de données.
    • Vérifiez les paramètres de connexion.

Finaliser et déployer

  1. Passez en revue toutes les configurations.
  2. Cliquez sur « Publier » pour déployer le flux de données.
  3. Attendez le message de confirmation.

Vérification

  1. Accédez à votre entrepôt SQL.
  2. Vérifiez que les données sont disponibles et correctement structurées.
  3. Exécutez des requêtes de test pour garantir l’intégrité des données.

Résolution des problèmes

Problèmes courants et solutions :

  • Échecs de connexion : vérifiez les informations d’identification et la connectivité réseau.
  • Tables manquantes : cochez les autorisations Delta Share.
  • Problèmes de performances : passez en revue les paramètres d’allocation et d’optimisation des ressources.

Se connecter à SQL Server à l’aide de Fabric Notebook

Vue d'ensemble

L’utilisation de Data Factory dans Microsoft Fabric avec Delta Sharing permet une intégration et un traitement transparents des tables Delta partagées dans le cadre de vos flux de travail d’analyse avec Procore Analytics 2.0. Delta Sharing est un protocole ouvert pour le partage sécurisé des données, permettant la collaboration entre les organisations sans dupliquer les données.

Ce guide vous guide tout au long des étapes de configuration et d’utilisation de Data Factory dans Fabric avec Delta Sharing, à l’aide de blocs-notes pour le traitement et l’exportation de données vers un Lakehouse.

Conditions préalables

  • Procore Analytics 2.0 SKU
  • Identifiants de partage Delta :
    • Accès aux informations d’identification Delta Sharing fournies par un fournisseur de données.
    • Un fichier de profil de partage (config.share) contenant:
      • URL du point de terminaison (URL du serveur de partage Delta).
      • Jeton d’accès (jeton du porteur pour un accès sécurisé aux données).
  • Créez votre fichier config.yaml avec des informations d’identification spécifiques.
  • Environnement Microsoft Fabric :
    • Un compte de locataire Microsoft Fabric avec un abonnement actif.
    • Un espace de travail compatible avec Fabric.
  • Packages et scripts :
    • Téléchargez le package fabric-lakehouse. Le répertoire doit comprendre :
      • ds_to_lakehouse.py : Code du bloc-notes.
      • readme.md : Instructions.

Procédure

Configurer la configuration

  1. Créez le fichier config.yaml et définissez la configuration dans la structure suivante
    source_config :
        config_path : chemin/vers/votre/fichier-d’identifiants-de-partage-delta.share
    tables : # Facultatif - Laisser vide pour traiter toutes les tables
        - table_name1
        - table_name2
    target_config :
        lakehouse_path : chemin/vers/votre/tissu/lakehouse/tables/ # chemin vers le tissu lakehouse

Configurez votre maison au bord du lac

  1. Ouvrez votre espace de travail Microsoft Fabric.
  2. Accédez à votre Lakehouse et cliquez sur Ouvrir le bloc-notes, puis sur Nouveau bloc-notes.
  3. Si vous ne connaissez pas la valeur dans config.yaml#lakehouse_path, Vous pouvez le copier à partir de l’écran.
  4. Cliquez sur les points de suspension sur Fichiers et sélectionnez Copier le chemin ABFS:
    clipboard_e5dd266d8c6a622cceb30dd893a9106d7.png
    clipboard_e08827dbe6aeae6ac8f2bec7f5c758325.png
    clipboard_e390331535300f7f89fd0a91c9a3adebe.png

3. Copiez le code de ds_to_lakehouse.py et collez-le dans la fenêtre du bloc-notes (Pyspark Python) :

clipboard_e5b5d27813f9bebdfbe7dae73291cb3ae.png

L’étape suivante consiste à charger vos propres fichiers config.yaml et config.share dans le dossier Resources de Lakehouse. Vous pouvez créer votre propre répertoire ou utiliser un répertoire intégré (déjà créé pour les ressources par Lakehouse) :


clipboard_eb5765c4bbf3ac93bd7c51ba6373f8049.png
clipboard_e86d913b62d37d237524537676680e4f3.png

L’exemple ci-dessous montre un répertoire intégré standard pour un fichier config.yaml .
Remarque : assurez-vous de charger les deux fichiers au même niveau et pour la propriété config_path:

clipboard_e8ca378a5a0937b4b675d00adc2ec965f.png

4. Vérifiez le code du cahier, lignes 170-175.
L’exemple ci-dessous montre les modifications de ligne nécessaires :

config_path = « ./env/config.yaml »

À 

config_path = « ./builtin/config.yaml»

Étant donné que les fichiers se trouvent dans un dossier intégré et non dans un environnement personnalisé, assurez-vous de surveiller votre propre structure des fichiers. Vous pouvez les charger dans différents dossiers, mais dans ce cas, mettez à jour le code du bloc-notes pour rechercher correctement le fichier config.yaml .
 

clipboard_e44e5ad3be4a06929aba88716b0fdaa23.png

5. Cliquez sur Exécuter la cellule :


clipboard_e381c59ce2e4e9471efc0e9e4cc663b6d.png

Validation

  • Une fois le travail terminé, vérifiez que les données ont bien été copiées dans votre Lakehouse.
  • Vérifiez les tables spécifiées et assurez-vous que les données correspondent aux tables Delta partagées.
  • Attendez que le travail soit terminé, il devrait copier toutes les données.

 

Se connecter aux Databricks

Remarque
Cette méthode de connexion est généralement utilisée par les professionnels de la donnée.
  1. Connectez-vous à votre environnement Databricks.
  2. Accédez à la section Catalogue .
  3. Sélectionnez Partage Delta dans le menu supérieur.
  4. Sélectionnez Partagé avec moi. 
  5. Copiez l’identifiant de partage qui vous a été fourni.
    analytics-delta-sharing1.png
  6. Partagez l’identifiant de partage avec l’équipe de support technique Procore.
    Note: Une fois l’identificateur de partage ajouté au système de Procore, la connexion Procore Databricks s’affiche dans l’onglet Partagé avec moi sous Fournisseurs de votre environnement Databricks. L’affichage des données peut prendre jusqu’à 24 heures.
    analytics-delta-sharing2.png
  7. Lorsque votre connexion Procore Databricks devient visible dans l’onglet Partagé avec moi , sélectionnez l’indentateur Procore et cliquez sur Créer un catalogue.
  8. Saisissez le nom de votre choix pour le catalogue partagé et cliquez sur Créer.
    analytics-delta-sharing3.png
  9. Votre catalogue et vos tableaux partagés s’afficheront désormais sous le nom fourni dans la section Explorateur de catalogues.
    analytics-delta-sharing4.png

Veuillez contacter le support technique Procore si vous avez des questions ou si vous avez besoin d’aide.

Se connecter à Snowflake à l’aide de Python

Vue d'ensemble

L’outil Accès Cloud Connect de Procore Analytics est une interface de ligne de commande (CLI) qui vous aide à configurer et à gérer les transferts de données de Procore vers Snowflake.

Il se compose de deux composantes principales : 

  • user_exp.py: Utilitaire de configuration
  • ds_to_snowflake.py: Script de synchronisation des données

Conditions préalables

  • Python est installé sur votre système 
  • Accès à Procore Delta Share
  • Informations d’identification du compte Snowflake 
  • Installez les dépendances requises à l’aide de :
    • pip install -r requirements.txt 

Procédure

Configuration initiale

Exécutez l’utilitaire de configuration à l’aide de python user_exp.py.

Synchronisation des données

Après la configuration, vous disposez de deux options pour exécuter la synchronisation des données : 

  • Exécution directe :
    • Python ds_to_snowflake.py
  • Exécution planifiée
    • S’il est configuré lors de l’installation, le travail s’exécutera automatiquement selon votre planning Cron.
    • Pour vérifier les journaux de planification, le fichier 'procore_scheduling.log' sera créé dès que la planification sera configurée.
    • En outre, vous pouvez vérifier la planification en exécutant la commande terminal :

Pour Linux et MacOS :

  • Pour modifier/supprimer - modifier le cron de la planification à l’aide de :

    '''bash

    EDITOR=nano crontab -e

    '''

  • Après avoir exécuté la commande ci-dessus, vous devriez voir quelque chose de similaire à :

    2 * * * *
    /Utilisateurs/your_user/flocon de neige/venv/bin/python

     
    /Utilisateurs/your_user/flocon de neige/sql_server_python/connection_config.py
    2> et 1 | pendant la ligne de lecture ; do echo « $(date) - $line » ; C’est fait>>

     
    /Users/your_user/snowflake/sql_server_python/procore_scheduling.log # import-donnees-procore 

     
  • Vous pouvez également ajuster le cron du planning ou supprimer la ligne entière pour l’empêcher de fonctionner selon le planning.

Pour Windows :

  • Vérifiez que la tâche du planning est créée : 

    '''
        powershell 

        schtasks /query /tn « ProcoreDeltaShareScheduling » /fo LIST /v 

    ''' 

  • Pour modifier/supprimer une tâche de planning, ouvrez le Planificateur de tâches.
  • Appuyez sur Win + R, tapez taskschd.msc, et appuyez sur Entrée. 
  • Accédez aux tâches planifiées. 
  • Dans le volet gauche, développez la bibliothèque du planificateur de tâches. 
  • Recherchez le dossier dans lequel votre tâche est enregistrée :
    Exemple : bibliothèque du planificateur de tâches ou dossier personnalisé.
  • Trouvez votre tâche.
  • Recherchez le nom de la tâche : ProcoreDeltaShareScheduling
  • Cliquez dessus pour afficher les détails dans le volet inférieur. 
  • Vérifiez son planning : 
    • Vérifiez l’onglet Déclencheurs pour voir quand la tâche est définie pour s’exécuter. 
    • Consultez l’onglet Historique pour confirmer les exécutions récentes. 
  • Pour supprimer une tâche : 
    • Supprimer la tâche de l’interface graphique.

Delta Share Configuration

  • Création d’un fichier config.share 
  • Avant d’exécuter l’utilitaire de configuration, vous devez créer un fichier config.share avec vos informations d’identification Delta Share. Le fichier doit être au format JSON : 

    « shareCredentialsVersion » : 1, 
    « bearerToken » : « xxxxxxxxxxxxx », 
    « endpoint » : « https://nvirginia.cloud.databricks.c... astores/xxxxxx"

     

  • Champs obligatoires : 
    • ShareCredentialsVersion : numéro de version (actuellement 1). 
    • BearerToken : votre jeton d’accès Delta Share.
    • Point de terminaison : l’URL de votre point de terminaison Delta Share.
    • Ces détails peuvent être obtenus à partir de l’interface utilisateur Web de Procore.
  • Étapes à suivre pour créer config.share : 
    • Créez un fichier nommé config.share.
    • Copiez le modèle JSON ci-dessus. 
    • Remplacez les valeurs d’espace réservé par vos informations d’identification réelles. 
    • Enregistrez le fichier dans un emplacement sûr. 
    • Vous devrez fournir le chemin d’accès à ce fichier lors de la configuration. Lors de la configuration de la source de données, il vous sera demandé de fournir les informations suivantes :
      • Liste des tableaux (séparés par des virgules).
      • Laissez le champ vide pour synchroniser tous les tableaux.
      • Exemple : table1, table2, table3.
  • Chemin d’accès à votre fichier config.share .

Configuration du flocon de neige

Vous devrez fournir les informations suivantes sur Snowflake :

  • Authentification (choisissez-en une) : 
    • Authentification de l’utilisateur 
      • Nom d’utilisateur 
      • Mot de passe (saisi en toute sécurité) 
  • Authentification par paire de clés
    • Nom d’utilisateur 
    • Chemin d’accès au fichier de clé privée
    • Mot de passe du fichier de clé privée 
  • Détails de connexion : 
    • Identifiant de compte 
    • Nom de l’entrepôt 
    • Nom de la base de données 
    • Nom du schéma 
    • Nombre de threads simultanés 

Options de planification

L’outil offre la possibilité de programmer une synchronisation automatique des données.

  • Configuration de la tâche Cron 
    • Choisir de configurer ou non une tâche quotidienne 
    • Si oui, fournissez un planning cron 
    • Format : * * * * * (minute heure jour du mois mois jour de la semaine)
    • Exemple pour tous les jours à 2 heures du matin : 0 2 * * * 
  • Exécution immédiate 
    • Possibilité d’exécuter le ds_to_snowflake.py immédiatement après la configuration  
  • Structure du fichier

    Unset 
    ├── requirements.txt                    # Dépendances 
    ├── user_exp.py                                # Utilitaire de configuration
    ├── ds_to_snowflake.py                # Script de synchronisation des données
    ├── config.yaml                                  # Généré configuration
    ├── config.share                               # Fichier de configuration Delta Share
    ├── procore_scheduling.log       # Registre des exécutions de planning 


    Exemple d’utilisation 
    • Étape 1: Installer les dépendances 
      $ pip install -r requirements.txt
    • Étape 2: Exécuter l’utilitaire de configuration 
      $ python user_exp.py 
    • Accès à Procore Analytics Cloud Connect 
      • Cette interface de ligne de commande vous aidera à choisir votre magasin source et votre magasin de destination pour accéder/écrire des données Procore dans Snowflake. 
      • Appuyez sur Entrée pour continuer.
      • Entrez la liste des tableaux (séparés par des virgules), laissez-la vide pour tous les tableaux : projets, utilisateurs, tâches.
      • Entrez le chemin d’accès à config.share : /chemin/vers/config.share.
      • Entrez le nom d’utilisateur : snowflake_user.
      • Quel type d’authentification souhaitez-vous utiliser ? (utilisateur/key_pair) : Entrée.
      • 1 pour l’utilisateur,
      • 2 pour la paire de clés :
      • Entrez le mot de passe : ******** 
      • Entrez le compte : my_account 
      • Entrez dans l’entrepôt : my_warehouse 
      • Entrez le nom de la base de données : procore_db
      • Entrez le nom du schéma : procore_schema 
      • Entrez le nombre de threads : 4 
      • Voulez-vous configurer cela comme un travail quotidien sur cron ? (Oui/Non) : Oui 
      • Saisissez le planning au format cron (par exemple, * * * * * ) : 0 2 * * * 
      • Voulez-vous exécuter le travail maintenant ? (Oui/Non) : Oui 
    • Étape 3: Exécution manuelle (si nécessaire)
      $ python ds_to_snowflake.py 
  • Réutilisation de la configuration
    L’outil enregistre votre configuration dans le fichier config.yaml et propose de réutiliser les paramètres précédemment stockés : 
    • La configuration source peut être réutilisée.
    • La configuration cible (Snowflake) peut être réutilisée. 
    • Vous pouvez choisir de mettre à jour l’une ou l’autre configuration indépendamment.

Meilleures pratiques 

  • Authentification
    • Utilisez l’authentification par paire de clés lorsque cela est possible.
    • Faites régulièrement une rotation des informations d’identification. 
    • Utilisez les autorisations minimales requises.
  • Performance 
    • Ajustez le nombre de threads en fonction des capacités de votre système. 
    • Commencez avec un sous-ensemble plus petit de tables pour les tests.

Dépannage 

  • Problèmes courants et solutions : 
    • Type d’authentification non valide 
      • Assurez-vous de sélectionner « 1 » (utilisateur) ou « 2 » (key_pair) lorsque vous y êtes invité.
  • Configuration de la tâche Cron  
    • Vérifiez que vous disposez des autorisations système appropriées.
    • Vérifiez les journaux système si la tâche ne parvient pas à s’exécuter.
    • Assurez-vous que le ds_to_snowflake.py dispose des autorisations appropriées. 
    • Vérifiez la configuration de la tâche cron en vérifiant les journaux système :
      Voir le fichier 'procore_scheduling.log '.
  • Fichier de configuration
    • Situé dans le même répertoire que le script,
    • Nommé config.yaml.
    • Sauvegardez avant d’apporter des modifications.
  • Support technique
    • Vérifiez la sortie de journalisation du script. 
    • Révisez votre fichier config.yaml
    • Contactez votre administrateur système pour les problèmes liés aux autorisations.
    • Contactez le support technique Procore pour les problèmes d’accès à Delta Share.

Note: N’oubliez pas de toujours sauvegarder votre configuration avant d’apporter des modifications et de tester d’abord les nouvelles configurations dans un environnement hors production.
 

Se connecter à Amazon S3 à l’aide de Python

Vue d'ensemble

L’outil d’accès à Cloud Connect de Procore Analytics est une interface de ligne de commande (CLI) qui vous aide à configurer et à gérer les transferts de données de Procore vers Amazon S3 avec Procore Analytics 2.0. 

Il se compose de deux composantes principales : 

  • user_exp.py: Utilitaire de configuration
  • delta_share_to_s3.py: Script de synchronisation des données

Conditions préalables

  • Procore Analytics 2.0 SKU
  • Python est installé sur votre système
  • Accès à Procore Delta Share
  • Touches d’accès S3
  • Installation des dépendances requises à l’aide de :
    • pip install -r requirements.txt 

Procédure

Configuration initiale

Exécutez l’utilitaire de configuration à l’aide de python user_exp.py.

Cela vous aidera à configurer les éléments suivants :

  • Delta Share Configuration
  • Configuration de la cible S3
  • Préférences de planification 

Delta Share Configuration

  • Création d’un fichier config.share 
  • Avant d’exécuter l’utilitaire de configuration, vous devez créer un fichier config.share avec vos informations d’identification Delta Share. Le fichier doit être au format JSON : 

    « shareCredentialsVersion » : 1, 
    « bearerToken » : « xxxxxxxxxxxxx », 
    « endpoint » : « xxxxxx"

  • Champs obligatoires : 
    • ShareCredentialsVersion : numéro de version (actuellement 1). 
    • BearerToken : votre jeton d’accès Delta Share.
    • Point de terminaison : l’URL de votre point de terminaison Delta Share.
    • Ces détails peuvent être obtenus à partir de l’interface utilisateur Web de Procore.
  • Étapes à suivre pour créer config.share : 
    • Créez un fichier nommé config.share.
    • Copiez le modèle JSON ci-dessus. 
    • Remplacez les valeurs d’espace réservé par vos informations d’identification réelles. 
    • Enregistrez le fichier dans un emplacement sûr. 
    • Vous devrez fournir le chemin d’accès à ce fichier lors de la configuration. Lors de la configuration de la source de données, il vous sera demandé de fournir les informations suivantes :
      • Liste des tableaux (séparés par des virgules).
      • Laissez le champ vide pour synchroniser tous les tableaux.
      • Exemple : table1, table2, table3.
  • Chemin d’accès à votre fichier config.share .

S3 Configuration

Vous devrez fournir les détails S3 suivants :

  • Authentification:
    • Clé d’accès
    • Clé secrète
    • Nom du compartiment sans s3 ://
    • clé - annuaire 

Options de planification

L’outil offre la possibilité de programmer une synchronisation automatique des données.

  • Configuration de la tâche Cron 
    • Choisissez de configurer ou non une tâche quotidienne. 
    • Si oui, fournissez un planning cron. 
    • Format : * * * * * (minute, heure, jour-du-mois, mois, jour de la semaine).
    • Exemple pour tous les jours à 2 heures du matin : 0 2 * * * 
    • Pour vérifier les journaux de planification, le fichier 'procore_scheduling.log' sera créé dès que la planification est configurée.

Vous pouvez également vérifier la planification en exécutant la commande terminal

Pour Linux et MacOS :    

Pour modifier/supprimer - modifier le cron de la planification à l’aide de :

'''bash
EDITOR=nano crontab -e
'''

  • Après avoir exécuté la commande ci-dessus, vous devriez voir quelque chose de similaire à :
  • 2 * * * * /Utilisateurs/your_user/flocon de neige/venv/bin/python /Utilisateurs/your_user/flocon de neige/sql_server_python/connection_config.py 2>&1 | pendant la ligne de lecture ; do echo « $(date) - $line » ; done >> /Users/your_user/snowflake/sql_server_python/procore_scheduling.log # procore-data-import
  • Vous pouvez également ajuster le cron du planning ou supprimer la ligne entière pour l’empêcher de fonctionner selon le planning.

Pour Windows :

  • Vérifiez que la tâche du planning est créée :
    '''PowerShell
    schtasks /query /tn « ProcoreDeltaShareScheduling » /fo LIST /v

    ```
  • Pour modifier/supprimer - planification de la tâche :
    Ouvrez le planificateur de tâches :
    • Appuyez sur Win + R, tapez taskschd.msc, et appuyez sur Entrée.
    • Accédez aux tâches planifiées.
    • Dans le volet gauche, développez la bibliothèque du planificateur de tâches.
    • Recherchez le dossier dans lequel votre tâche est enregistrée (par exemple, la bibliothèque du planificateur de tâches ou un dossier personnalisé).
  • Trouvez votre tâche :
    • Recherchez le nom de la tâche ProcoreDeltaShareScheduling.
    • Cliquez dessus pour afficher ses détails dans le volet inférieur.
  • Vérifiez son planning :
    • Vérifiez l’onglet Déclencheurs pour voir quand la tâche est définie pour s’exécuter.
    • Consultez l’onglet Historique pour confirmer les exécutions récentes.
  • Pour supprimer une tâche :
    • Supprimer la tâche de l’interface graphique.
  • Exécution immédiate 
    • Option d’exécution de l’delta_share_to_s3_.pStructure du fichier
  • Unset 

    ├── requirements.txt                    # Dépendances 
    ├── user_exp.py                                # Utilitaire de configuration
    ├── delta_share_to_s3.py            # Script de synchronisation des données
    ├── config.yaml                                  # Généré configuration
    ├── config.share                               # Fichier de configuration Delta Share
    ├── procore_scheduling.log       # Registre des exécutions de planning 


    Exemple d’utilisation 
    • Étape 1: Installer les dépendances 
      $ pip install -r requirements.txt
    • Étape 2: Exécuter l’utilitaire de configuration 
      $ python user_exp.py 
    • Accès à Procore Analytics Cloud Connect 
      • Cette interface de ligne de commande vous aidera à choisir votre magasin source et votre magasin de destination pour accéder/écrire des données Procore dans S3. 
      • Appuyez sur Entrée pour continuer.
      • Entrez la liste des tableaux (séparés par des virgules), laissez-la vide pour tous les tableaux : projets, utilisateurs, tâches.
      • Entrez le chemin d’accès à config.share : /chemin/vers/config.share.
      • Entrez la clé d’accès : clé s3.
      • Entrez secret : secret.
      • Enter bucket : nom du bucket.
      • Voulez-vous configurer cela comme un travail quotidien sur cron ? (Oui/Non) : Oui 
      • Saisissez le planning au format cron (par exemple, * * * * * ) : 0 2 * * * 
      • Voulez-vous exécuter le travail maintenant ? (Oui/Non) : Oui 
    • Étape 3: Exécution manuelle (si nécessaire)
      $ python delta_share_to_s3.py 
  • Réutilisation de la configuration
    L’outil enregistre votre configuration dans le fichier config.yaml et propose de réutiliser les paramètres précédemment stockés : 
    • La configuration source peut être réutilisée.
    • La configuration cible (S3) peut être réutilisée. 
    • Vous pouvez choisir de mettre à jour l’une ou l’autre configuration indépendamment.

Dépannage 

Problèmes courants et solutions

  • Configuration de la tâche Cron  
    • Assurez-vous que les autorisations système sont correctement configurées.
    • Vérifiez les journaux système si la tâche ne parvient pas à s’exécuter.
    • Vérifier le script (delta_share_to_s3.py) Exécuter des autorisations.
  • Fichier de configuration
    • Vérifiez que le fichier config.yaml se trouve dans le même répertoire que le script.
    • Sauvegardez avant d’apporter des modifications.
  • Support technique
    • Consultez les journaux de script pour obtenir des messages d’erreur détaillés.
    • Vérifiez que votre fichier config.yaml ne contient pas d’erreurs de configuration.
    • Contactez votre administrateur système pour les problèmes liés aux autorisations.
    • Contactez le support technique Procore pour les problèmes d’accès à Delta Share.
    • Vérifiez la configuration de la tâche cron en vérifiant les journaux système : Voir le fichier 'procore_scheduling_log '.

Remarques :

  1. N’oubliez pas de toujours sauvegarder votre configuration avant d’apporter des modifications.
  2. Testez d’abord les nouvelles configurations dans un environnement hors production.

Établissez votre propre connexion

Vue d'ensemble

Delta Sharing est un protocole ouvert pour le partage sécurisé de données en temps réel, permettant aux organisations de partager des données sur différentes plates-formes informatiques. Ce guide vous guidera tout au long du processus de connexion et d’accès aux données via Delta Sharing.

Options de connecteur de partage Delta

  • Connecteur Python
  • Connecteur Apache Spark
  • Configurer un shell interactif
  • Configurer un projet autonome

Connecteur Python

Le connecteur Python Delta Sharing est une bibliothèque Python qui implémente le protocole Delta Sharing pour lire les tables à partir d’un serveur Delta Sharing. Vous pouvez charger des tables partagées en tant que DataFrame pandas ou en tant que DataFrame Apache Spark si vous les exécutez dans PySpark avec le connecteur Apache Spark installé.

Configuration requise

  • Python 3.8+ pour le partage delta version 1.1+
  • Python 3.6+ pour les anciennes versions
  • Si vous utilisez Linux, glibc version >= 2.31
  • Pour l’installation automatique du paquet delta-kernel-rust-sharing-wrapper, veuillez consulter la section suivante pour plus de détails.

Processus d’installation

Unset
pip3 installer delta-sharing

  • Si vous utilisez Databricks Runtime, vous pouvez suivre la documentation des bibliothèques Databricks pour installer la bibliothèque sur vos clusters.
  • Si cela ne fonctionne pas en raison d’un problème de téléchargement de delta-kernel-rust-sharing-wrapper, essayez ce qui suit :
    •  Vérifiez la version de python3 >= 3.8
    •  Mettez à jour votre pip3 vers la dernière version

Accès aux données partagées

Le connecteur accède aux tables partagées en fonction de fichiers de profil, qui sont des fichiers JSON contenant les informations d’identification d’un utilisateur pour accéder à un serveur de partage Delta. Nous avons plusieurs façons de commencer :

Avant de commencer

  • Téléchargez un fichier de profil auprès de votre fournisseur de données.

Accès aux options de données partagées

Après avoir enregistré le fichier de profil, vous pouvez l’utiliser dans le connecteur pour accéder aux tables partagées.

Importer delta_sharing

  • Pointez sur le fichier de profil. Il peut s’agir d’un fichier sur le système de fichiers local ou d’un fichier sur un stockage distant.
    • profile_file = « »<profile-file-path>
  • Créez un SharingClient.
    • client = delta_sharing. SharingClient(profile_file)
  • Répertorier toutes les tables partagées.
    • client.list_all_tables()
  • Créez une url pour accéder à une table partagée.
  • Un chemin d’accès à la table est le chemin d’accès au fichier de profil suivi de « # » et du nom complet d’une table.
  • (`<share-name>.<schema-name>.<table-name>`).
    • table_url = profile_file + "#<share-name>.<schema-name>.<table-name>"
  • Récupérez 10 lignes d’une table et convertissez-la en DataFrame Pandas. Cela peut être utilisé pour lire des exemples de données à partir d’une table qui ne peut pas tenir dans la mémoire.
    • delta_sharing.load_as_pandas(table_url, limit=10)
  •  Chargez une table en tant que DataFrame Pandas. Cela peut être utilisé pour traiter des tables qui peuvent tenir dans la mémoire.
    • delta_sharing.load_as_pandas(table_url)
  •  Charger une table en tant que DataFrame Pandas explicitement à l’aide du format Delta
    • delta_sharing.load_as_pandas(table_url, use_delta_format = Vrai)
  • Si le code s’exécute avec PySpark, vous pouvez utiliser « load_as_spark » pour charger la table en tant que DataFrame Spark.
    • delta_sharing.load_as_spark(table_url)
  • Si la table prend en charge le partage de l’historique (tableConfig.cdfEnabled=true dans le serveur de partage Delta OSS), le connecteur peut interroger les modifications apportées à la table.
  • Charger les modifications de la table de la version 0 à la version 5, en tant que DataFrame Pandas.
    • delta_sharing.load_table_changes_as_pandas(table_url, starting_version=0, ending_version=5)
  • Si le code s’exécute avec PySpark, vous pouvez charger les modifications de table en tant que DataFrame Spark.
    • delta_sharing.load_table_changes_as_spark(table_url, starting_version=0, ending_version=5)

Connecteur Apache Spark

Le connecteur Apache Spark implémente le protocole de partage Delta pour lire les tables partagées à partir d’un serveur de partage Delta. Il peut être utilisé en SQL, Python, Java, Scala et R.

Configuration requise

Accès aux données partagées

Le connecteur charge les informations d’identification de l’utilisateur à partir de fichiers de profil.

Configuration d’Apache Spark

Vous pouvez configurer Apache Spark pour charger le connecteur Delta Sharing de l’une des manières suivantes
:

  • Exécuter de manière interactive : démarrez le shell Spark (Scala ou Python) avec le connecteur Delta Sharing et exécutez les extraits de code de manière interactive dans le shell.
  • Exécuter en tant que projet : configurez un projet Maven ou SBT (Scala ou Java) avec le connecteur Delta Sharing, copiez les extraits de code dans un fichier source et exécutez le projet.

Si vous utilisez Databricks Runtime, vous pouvez ignorer cette section et suivre la documentation des bibliothèques Databricks pour installer le connecteur sur vos clusters.

Configurer un shell interactif

Pour utiliser le connecteur Delta Sharing de manière interactive dans le shell Scala/Python de Spark, vous pouvez lancer les shells comme suit.

Interpréteur de commandes PySpark

Unset
pyspark --packages io.delta :delta-sharing-spark_2.12:3.1.0

 

Coquille Scala

Unset
bin/spark-shell --packages
io.delta :partage-delta spark_2.12:3.1.0

Configurer un projet autonome

Si vous souhaitez créer un projet Java/Scala à l’aide du connecteur Delta Sharing du référentiel central Maven, vous pouvez utiliser les coordonnées Maven suivantes.

Maven

Vous incluez le connecteur Delta Sharing dans votre projet Maven en l’ajoutant en tant que dépendance dans votre fichier POM. Le connecteur Delta Sharing est compilé avec Scala 2.12.

<dependency>


<groupId>io.delta</groupId>


<artifactId>delta-sharing-spark_2.12</artifactId>


<version>3.1.0</version>


</dependency>