Table des matières
Cloud Connector est la façon dont Procore partage les données, l’intelligence et l’analyse avec ses clients. Celles-ci peuvent être partagées directement vers des outils de création de rapports tels que Power BI ou Tableau. Elles peuvent également être partagées avec les entrepôts de données, les magasins, les lacs ou d’autres applications des clients. Les clients peuvent même créer un accès programmatique à leurs données à l’aide de Cloud Connector pour une véritable automatisation. Cloud Connector est basé sur le protocole de partage ouvert Delta Share.
Delta Sharing est le premier protocole ouvert de l’industrie pour le partage sécurisé des données, ce qui facilite le partage de données avec d’autres organisations, quelles que soient les plates-formes informatiques qu’elles utilisent. De nombreuses applications peuvent accéder aux données avec Delta Share. Cependant, pour améliorer encore l’expérience client, Procore a ajouté des connecteurs, du code prédéfini et des guides pour les plates-formes suivantes, réduisant ainsi le temps et la complexité de configuration pour permettre une connexion transparente et prête à l’emploi.
D’autres connecteurs de données seront bientôt disponibles !
Une documentation complète et des exemples de code sont disponibles dans le produit Procore Analytics directement dans l’application Web Procore accessible par vos administrateurs Procore. Ces ressources fournissent des instructions pas à pas, des extraits de code et les meilleures pratiques pour vous aider à configurer et à gérer efficacement votre intégration de données.
Passez à la section suivante de ce guide pour commencer le processus de configuration.
Pour toute question supplémentaire ou assistance, veuillez contacter votre gestionnaire de compte ou notre équipe d’assistance.
Vous devez vous assurer que les autorisations appropriées sont assignées pour générer un jeton d'accès afin de pouvoir commencer à connecter vos données Procore à votre solution BI. L'accès à Procore Analytics est lié à vos identifiants de connexion Procore, ce qui vous permet de générer un seul jeton d'accès. Le jeton d'accès est une chaîne de chiffres que vous saisissez dans votre système de BI pour accéder aux données.
En règle générale, les utilisateurs qui ont besoin de jetons d'accès sont des ingénieurs de données ou des développeurs Power BI. Si vous avez accès à Procore Analytics dans plusieurs entreprises, votre jeton vous permettra d'extraire les données de toutes. Le jeton est lié à vous, et non à une entreprise en particulier, il reste donc le même pour toutes les entreprises auxquelles vous avez accès.
Les administrateurs de l'entreprise et du projet se verront attribuer un rôle Admin par défaut. Les niveaux d'accès utilisateur suivants sont autorisés pour l'outil Procore Analytics :
L’accès aux données dans l’outil Procore Analytics sera révoqué lorsque les autorisations d’un utilisateur pour l’outil seront supprimées. De plus, si l’enregistrement de contact d’un utilisateur devient inactif, il perdra également l’accès aux données de Procore Analytics.
Pour commencer à accéder à vos données Procore, il existe deux options pour générer vos identifiants d’accès aux données : la méthode de connexion directe Databricks ou la méthode Delta Share Token. Le jeton d’accès est une chaîne de chiffres que vous devez saisir dans votre connecteur de données applicable pour accéder aux données.


L’outil d’accès Cloud Connect de Procore Analytics est une interface de ligne de commande (CLI) qui vous aide à configurer et à gérer les transferts de données de Procore vers MS SQL Server. Il se compose de deux composantes principales :
Cela vous aidera à configurer les éléments suivants :
Après la configuration, vous disposez de deux options pour exécuter la synchronisation des données :
{
« shareCredentialsVersion » : 1,
« bearerToken » : « xxxxxxxxxxxxx »,
« endpoint » : « https://nvirginia.cloud.databricks.c... astores/xxxxxx"
}
Vous devrez fournir les détails MS SQL Server suivants :




Ce guide fournit des instructions détaillées sur la configuration et l’utilisation du package d’intégration Delta Sharing sur un système d’exploitation Windows afin d’intégrer de manière transparente les données dans vos flux de travail avec Procore Analytics. Le package prend en charge plusieurs options d’exécution, ce qui vous permet de choisir la configuration et la méthode d’intégration souhaitées.
Assurez-vous d’avoir les éléments suivants avant de procéder :

{
« shareCredentialsVersion » : 1,
« bearerToken » : « xxxxxxxxxxxxx »,
« endpoint » : « https://nvirginia.cloud.databricks.c... astores/xxxxxx"
}

Vous pouvez également vérifier la planification en exécutant la commande terminal :
Pour Linux et MacOS :
Pour modifier/supprimer - modifier le cron de la planification à l’aide de :
'''bash
EDITOR=nano crontab -e
'''
Pour Windows :
Question d’exécution immédiate :
Problèmes courants et solutions
Support technique
Pour obtenir de l’aide supplémentaire :
Notes
Ce guide fournit des instructions détaillées sur la configuration et l’utilisation du package d’intégration Delta Sharing sur un système d’exploitation Windows afin d’intégrer de manière transparente les données dans vos flux de travail avec Procore Analytics. Le package prend en charge plusieurs options d’exécution, ce qui vous permet de choisir la configuration et la méthode d’intégration souhaitées.
Assurez-vous d’avoir les éléments suivants avant de procéder :

{
« shareCredentialsVersion » : 1,
« bearerToken » : « xxxxxxxxxxxxx »,
« endpoint » : « https://nvirginia.cloud.databricks.c... astores/xxxxxx"
}

Vous pouvez également vérifier la planification en exécutant la commande terminal :
Pour Linux et MacOS :
Pour modifier/supprimer - modifier le cron de la planification à l’aide de :
'''bash
EDITOR=nano crontab -e
'''
Pour Windows :
Question d’exécution immédiate :
Problèmes courants et solutions
Support technique
Pour obtenir de l’aide supplémentaire :
Notes
Ce guide vous guide tout au long de la configuration et du déploiement d’une fonction Azure pour l’intégration de données Delta Sharing à Procore Analytics. La fonction Azure permet un traitement efficace des données et des flux de travail de partage avec les profils Delta Sharing.
Atteindre
to pour obtenir des directives sur l’installation des outils principaux Azure Functions.
Ce guide fournit des instructions détaillées sur la configuration et l’utilisation du package d’intégration Delta Sharing sur un système d’exploitation Windows afin d’intégrer de manière transparente les données dans vos flux de travail avec Procore Analytics. Le package prend en charge plusieurs options d’exécution, ce qui vous permet de choisir la configuration et la méthode d’intégration souhaitées.
Assurez-vous d’avoir les éléments suivants avant de procéder :

{
« shareCredentialsVersion » : 1,
« bearerToken » : « xxxxxxxxxxxxx »,
« endpoint » : « https://nvirginia.cloud.databricks.c... astores/xxxxxx"
}

Vous pouvez également vérifier la planification en exécutant la commande terminal :
Pour Linux et MacOS :
Pour modifier/supprimer - modifier le cron de la planification à l’aide de :
'''bash
EDITOR=nano crontab -e
'''
Pour Windows :
Question d’exécution immédiate :
Problèmes courants et solutions
Support technique
Pour obtenir de l’aide supplémentaire :
Notes
Ce guide fournit des instructions détaillées sur la configuration et l’utilisation du package d’intégration Delta Sharing sur un système d’exploitation Windows afin d’intégrer de manière transparente les données dans vos flux de travail avec Procore Analytics. Le package prend en charge plusieurs options d’exécution, ce qui vous permet de choisir la configuration et la méthode d’intégration souhaitées.
Assurez-vous d’avoir les éléments suivants avant de procéder :

{
« shareCredentialsVersion » : 1,
« bearerToken » : « xxxxxxxxxxxxx »,
« endpoint » : « https://nvirginia.cloud.databricks.c... astores/xxxxxx"
}

Vous pouvez également vérifier la planification en exécutant la commande terminal :
Pour Linux et MacOS :
Pour modifier/supprimer - modifier le cron de la planification à l’aide de :
'''bash
EDITOR=nano crontab -e
'''
Pour Windows :
Question d’exécution immédiate :
Problèmes courants et solutions
Support technique
Pour obtenir de l’aide supplémentaire :
Notes
L’intégration de Delta Sharing à Microsoft Fabric Data Factory permet un accès et un traitement transparents des tables Delta partagées pour vos flux de travail d’analyse avec Procore Analytics 2.0. Delta Sharing, un protocole ouvert pour une collaboration sécurisée des données, garantit que les organisations peuvent partager des données sans duplication.




Après avoir configuré le flux de données, vous pouvez maintenant appliquer des transformations aux données Delta partagées. Choisissez votre option Delta Sharing Data dans la liste ci-dessous :
Testez vos pipelines et flux de données pour garantir une exécution fluide. Utilisez les outils de surveillance de Data
Factory pour suivre la progression et les journaux de chaque activité.
L’utilisation de Data Factory dans Microsoft Fabric avec Delta Sharing permet une intégration et un traitement transparents des tables Delta partagées dans le cadre de vos flux de travail d’analyse avec Procore Analytics 2.0. Delta Sharing est un protocole ouvert pour le partage sécurisé des données, permettant la collaboration entre les organisations sans dupliquer les données.
Ce guide vous guide tout au long des étapes de configuration et d’utilisation de Data Factory dans Fabric avec Delta Sharing, à l’aide de blocs-notes pour le traitement et l’exportation de données vers un Lakehouse.



3. Copiez le code de ds_to_lakehouse.py et collez-le dans la fenêtre du bloc-notes (Pyspark Python) :

L’étape suivante consiste à charger vos propres fichiers config.yaml et config.share dans le dossier Resources de Lakehouse. Vous pouvez créer votre propre répertoire ou utiliser un répertoire intégré (déjà créé pour les ressources par Lakehouse) :


L’exemple ci-dessous montre un répertoire intégré standard pour un fichier config.yaml .
Remarque : assurez-vous de charger les deux fichiers au même niveau et pour la propriété config_path:

4. Vérifiez le code du cahier, lignes 170-175.
L’exemple ci-dessous montre les modifications de ligne nécessaires :
config_path = « ./env/config.yaml »
À
config_path = « ./builtin/config.yaml»
Étant donné que les fichiers se trouvent dans un dossier intégré et non dans un environnement personnalisé, assurez-vous de surveiller votre propre structure des fichiers. Vous pouvez les charger dans différents dossiers, mais dans ce cas, mettez à jour le code du bloc-notes pour rechercher correctement le fichier config.yaml .

5. Cliquez sur Exécuter la cellule :

Ce guide vous guide tout au long de la configuration et du déploiement d’une fonction Azure pour l’intégration de données Delta Sharing à Procore Analytics. La fonction Azure permet un traitement efficace des données et des flux de travail de partage avec les profils Delta Sharing.
Atteindre
to pour obtenir des directives sur l’installation des outils principaux Azure Functions.Ce document fournit des instructions pas à pas pour configurer un pipeline de données dans Microsoft Fabric afin de transférer des données de Delta Share vers un entrepôt SQL. Cette configuration permet une intégration transparente des données entre les sources Delta Lake et les destinations SQL.
Problèmes courants et solutions :
L’utilisation de Data Factory dans Microsoft Fabric avec Delta Sharing permet une intégration et un traitement transparents des tables Delta partagées dans le cadre de vos flux de travail d’analyse avec Procore Analytics 2.0. Delta Sharing est un protocole ouvert pour le partage sécurisé des données, permettant la collaboration entre les organisations sans dupliquer les données.
Ce guide vous guide tout au long des étapes de configuration et d’utilisation de Data Factory dans Fabric avec Delta Sharing, à l’aide de blocs-notes pour le traitement et l’exportation de données vers un Lakehouse.



3. Copiez le code de ds_to_lakehouse.py et collez-le dans la fenêtre du bloc-notes (Pyspark Python) :

L’étape suivante consiste à charger vos propres fichiers config.yaml et config.share dans le dossier Resources de Lakehouse. Vous pouvez créer votre propre répertoire ou utiliser un répertoire intégré (déjà créé pour les ressources par Lakehouse) :


L’exemple ci-dessous montre un répertoire intégré standard pour un fichier config.yaml .
Remarque : assurez-vous de charger les deux fichiers au même niveau et pour la propriété config_path:

4. Vérifiez le code du cahier, lignes 170-175.
L’exemple ci-dessous montre les modifications de ligne nécessaires :
config_path = « ./env/config.yaml »
À
config_path = « ./builtin/config.yaml»
Étant donné que les fichiers se trouvent dans un dossier intégré et non dans un environnement personnalisé, assurez-vous de surveiller votre propre structure des fichiers. Vous pouvez les charger dans différents dossiers, mais dans ce cas, mettez à jour le code du bloc-notes pour rechercher correctement le fichier config.yaml .

5. Cliquez sur Exécuter la cellule :





Veuillez contacter le support technique Procore si vous avez des questions ou si vous avez besoin d’aide.
L’outil Accès Cloud Connect de Procore Analytics est une interface de ligne de commande (CLI) qui vous aide à configurer et à gérer les transferts de données de Procore vers Snowflake.
Il se compose de deux composantes principales :
Exécutez l’utilitaire de configuration à l’aide de python user_exp.py.
Après la configuration, vous disposez de deux options pour exécuter la synchronisation des données :
Pour Linux et MacOS :
'''bash
EDITOR=nano crontab -e
'''
2 * * * *
/Utilisateurs/your_user/flocon de neige/venv/bin/python
/Utilisateurs/your_user/flocon de neige/sql_server_python/connection_config.py
2> et 1 | pendant la ligne de lecture ; do echo « $(date) - $line » ; C’est fait>>
/Users/your_user/snowflake/sql_server_python/procore_scheduling.log # import-donnees-procore
Pour Windows :
'''
powershell
schtasks /query /tn « ProcoreDeltaShareScheduling » /fo LIST /v
'''
{
« shareCredentialsVersion » : 1,
« bearerToken » : « xxxxxxxxxxxxx »,
« endpoint » : « https://nvirginia.cloud.databricks.c... astores/xxxxxx"
}
Vous devrez fournir les informations suivantes sur Snowflake :
L’outil offre la possibilité de programmer une synchronisation automatique des données.
Unset
├── requirements.txt # Dépendances
├── user_exp.py # Utilitaire de configuration
├── ds_to_snowflake.py # Script de synchronisation des données
├── config.yaml # Généré configuration
├── config.share # Fichier de configuration Delta Share
├── procore_scheduling.log # Registre des exécutions de planning
Note: N’oubliez pas de toujours sauvegarder votre configuration avant d’apporter des modifications et de tester d’abord les nouvelles configurations dans un environnement hors production.
L’outil d’accès à Cloud Connect de Procore Analytics est une interface de ligne de commande (CLI) qui vous aide à configurer et à gérer les transferts de données de Procore vers Amazon S3 avec Procore Analytics 2.0.
Il se compose de deux composantes principales :
Exécutez l’utilitaire de configuration à l’aide de python user_exp.py.
Cela vous aidera à configurer les éléments suivants :
{
« shareCredentialsVersion » : 1,
« bearerToken » : « xxxxxxxxxxxxx »,
« endpoint » : « xxxxxx"
}
Vous devrez fournir les détails S3 suivants :
L’outil offre la possibilité de programmer une synchronisation automatique des données.
Vous pouvez également vérifier la planification en exécutant la commande terminal
Pour Linux et MacOS :
Pour modifier/supprimer - modifier le cron de la planification à l’aide de :
'''bash
EDITOR=nano crontab -e
'''
Pour Windows :
Unset
├── requirements.txt # Dépendances
├── user_exp.py # Utilitaire de configuration
├── delta_share_to_s3.py # Script de synchronisation des données
├── config.yaml # Généré configuration
├── config.share # Fichier de configuration Delta Share
├── procore_scheduling.log # Registre des exécutions de planning
Problèmes courants et solutions:
Remarques :
Delta Sharing est un protocole ouvert pour le partage sécurisé de données en temps réel, permettant aux organisations de partager des données sur différentes plates-formes informatiques. Ce guide vous guidera tout au long du processus de connexion et d’accès aux données via Delta Sharing.
Le connecteur Python Delta Sharing est une bibliothèque Python qui implémente le protocole Delta Sharing pour lire les tables à partir d’un serveur Delta Sharing. Vous pouvez charger des tables partagées en tant que DataFrame pandas ou en tant que DataFrame Apache Spark si vous les exécutez dans PySpark avec le connecteur Apache Spark installé.
Unset
pip3 installer delta-sharing
Le connecteur accède aux tables partagées en fonction de fichiers de profil, qui sont des fichiers JSON contenant les informations d’identification d’un utilisateur pour accéder à un serveur de partage Delta. Nous avons plusieurs façons de commencer :
Après avoir enregistré le fichier de profil, vous pouvez l’utiliser dans le connecteur pour accéder aux tables partagées.
Importer delta_sharing
Le connecteur Apache Spark implémente le protocole de partage Delta pour lire les tables partagées à partir d’un serveur de partage Delta. Il peut être utilisé en SQL, Python, Java, Scala et R.
Le connecteur charge les informations d’identification de l’utilisateur à partir de fichiers de profil.
Vous pouvez configurer Apache Spark pour charger le connecteur Delta Sharing de l’une des manières suivantes
:
Si vous utilisez Databricks Runtime, vous pouvez ignorer cette section et suivre la documentation des bibliothèques Databricks pour installer le connecteur sur vos clusters.
Pour utiliser le connecteur Delta Sharing de manière interactive dans le shell Scala/Python de Spark, vous pouvez lancer les shells comme suit.
Interpréteur de commandes PySpark
Unset
pyspark --packages io.delta :delta-sharing-spark_2.12:3.1.0
Coquille Scala
Unset
bin/spark-shell --packages
io.delta :partage-delta spark_2.12:3.1.0
Si vous souhaitez créer un projet Java/Scala à l’aide du connecteur Delta Sharing du référentiel central Maven, vous pouvez utiliser les coordonnées Maven suivantes.
Vous incluez le connecteur Delta Sharing dans votre projet Maven en l’ajoutant en tant que dépendance dans votre fichier POM. Le connecteur Delta Sharing est compilé avec Scala 2.12.
<dependency>
<groupId>io.delta</groupId>
<artifactId>delta-sharing-spark_2.12</artifactId>
<version>3.1.0</version>
</dependency>