Table des matières
Nuage Connector est la façon dont Procore partage les données, l’intelligence et l’analyse avec nos clients. Ces informations peuvent être partagées directement avec des outils de création de rapports tels que Power BI ou Tableau. Il peut également être partagé avec les entrepôts de données, les magasins, les lacs ou d’autres applications des clients. Les clients peuvent même créer un accès programmatique à leurs données à l’aide de Nuage Connector pour une véritable automatisation. Nuage Connector est basé sur le protocole de partage ouvert Delta Share.
Delta Sharing est le premier protocole ouvert de l’industrie pour le partage sécurisé de données, ce qui facilite le partage de données avec d’autres organisations, quelles que soient les plates-formes informatiques qu’elles utilisent. De nombreuses applications peuvent accéder aux données avec Delta Share. Cependant, pour améliorer encore l’expérience client, Procore a ajouté des connecteurs, du code prédéfini et des guides pour les plates-formes suivantes, réduisant ainsi le temps et la complexité de configuration pour permettre une connexion transparente et prête à l’emploi.
D’autres connecteurs de données seront bientôt disponibles !
Une documentation complète et des exemples de code sont disponibles dans le produit Procore Analytics directement dans l’application Web Procore accessible par vos administrateurs Procore. Ces ressources fournissent des instructions pas à pas, des extraits de code et des meilleures pratiques pour vous aider à configurer et à gérer efficacement votre intégration de données.
Passez à la section suivante de ce guide pour commencer le processus d’installation.
Pour toute question supplémentaire ou pour obtenir de l’aide, veuillez contacter votre gestionnaire de compte ou notre équipe d’assistance.
Vous devez vous assurer que les permissions appropriées sont attribuées pour générer un jeton d’accès afin de pouvoir commencer à connecter vos données Procore à votre solution BI. L’accès à Procore Analytics est lié à vos identifiants de connexion Procore, ce qui vous permet de générer un seul jeton d’accès. Le jeton d’accès est une chaîne de chiffres que vous saisirez dans votre système BI pour accéder aux données.
En règle générale, les utilisateurs qui ont besoin de jetons d'accès sont des ingénieurs de données ou des développeurs Power BI. Si vous avez accès à Analyse Procore dans plusieurs compagnies, votre jeton vous permettra d’extraire des données de tous les. Le jeton est lié à vous, pas à une compagnie spécifique, il reste donc le même dans toutes les compagnies auxquelles vous avez accès.
Les administrateurs de la compagnie et du projet se verront attribuer un rôle d'administrateur par défaut. Les niveaux d’accès des utilisateurs suivants sont autorisés pour l’outil Analyse Procore :
L’accès aux données dans l’outil Procore Analytics sera révoqué lorsque les permissions d’un utilisateur pour l’outil seront supprimées. De plus, si l’enregistrement de contact d’un utilisateur devient inactif, il perdra également l’accès aux données de Procore Analytics.
Pour commencer à accéder à vos données Procore, il existe deux options pour générer vos identifiants d’accès aux données : la méthode de connexion directe Databricks ou la méthode Delta Share Token. Le jeton d’accès est une chaîne de chiffres que vous entrez dans votre connecteur de données applicable pour accéder aux données.


L’outil Nuage Connect Access de Procore Analytics est une interface de ligne de commande (CLI) qui vous aide à configurer et à gérer les transferts de données de Procore vers MS SQL Server. Il se compose de deux composantes principales :
Cela vous aidera à configurer les éléments suivants :
Après la configuration, vous avez deux options pour exécuter la synchronisation des données :
{
« shareCredentialsVersion » : 1,
« bearerToken » : « xxxxxxxxxxxxx »,
« endpoint » : « https://nvirginia.nuage. databricks.c... astores/xxxxxx"
}
Vous devez fournir les détails MS SQL Server suivants :




Ce guide fournit des instructions détaillées pour la configuration et l’utilisation du package d’intégration Delta Sharing sur un système d’exploitation Windows afin d’intégrer de manière transparente les données dans vos flux de travail avec Procore Analytics. Le package prend en charge plusieurs options d’exécution, ce qui vous permet de choisir la configuration et la méthode d’intégration souhaitées.
Assurez-vous d’avoir les éléments suivants avant de continuer :

{
« shareCredentialsVersion » : 1,
« bearerToken » : « xxxxxxxxxxxxx »,
« endpoint » : « https://nvirginia.nuage. databricks.c... astores/xxxxxx"
}

Vous pouvez également vérifier la planification en exécutant la commande du terminal :
Pour Linux et MacOS :
Pour modifier/supprimer - modifiez le cron de l’échéancier en utilisant :
'''bash
EDITOR=nano crontab -e
```
Pour Windows :
Question relative à l’exécution immédiate :
Problèmes courants et solutions
Soutien
Pour obtenir de l’aide supplémentaire :
Remarques
Ce guide fournit des instructions détaillées pour la configuration et l’utilisation du package d’intégration Delta Sharing sur un système d’exploitation Windows afin d’intégrer de manière transparente les données dans vos flux de travail avec Procore Analytics. Le package prend en charge plusieurs options d’exécution, ce qui vous permet de choisir la configuration et la méthode d’intégration souhaitées.
Assurez-vous d’avoir les éléments suivants avant de continuer :

{
« shareCredentialsVersion » : 1,
« bearerToken » : « xxxxxxxxxxxxx »,
« endpoint » : « https://nvirginia.nuage. databricks.c... astores/xxxxxx"
}

Vous pouvez également vérifier la planification en exécutant la commande du terminal :
Pour Linux et MacOS :
Pour modifier/supprimer - modifiez le cron de l’échéancier en utilisant :
'''bash
EDITOR=nano crontab -e
```
Pour Windows :
Question relative à l’exécution immédiate :
Problèmes courants et solutions
Soutien
Pour obtenir de l’aide supplémentaire :
Remarques
Ce guide vous guide tout au long de la configuration et du déploiement d’une fonction Azure pour l’intégration de données Delta Sharing à Procore Analytics. La fonction Azure permet un traitement efficace des données et des flux de travail de partage avec les profils Delta Sharing.
Aller à
to pour obtenir des instructions sur l’installation des outils essentiels Azure Functions.
Ce guide fournit des instructions détaillées pour la configuration et l’utilisation du package d’intégration Delta Sharing sur un système d’exploitation Windows afin d’intégrer de manière transparente les données dans vos flux de travail avec Procore Analytics. Le package prend en charge plusieurs options d’exécution, ce qui vous permet de choisir la configuration et la méthode d’intégration souhaitées.
Assurez-vous d’avoir les éléments suivants avant de continuer :

{
« shareCredentialsVersion » : 1,
« bearerToken » : « xxxxxxxxxxxxx »,
« endpoint » : « https://nvirginia.nuage. databricks.c... astores/xxxxxx"
}

Vous pouvez également vérifier la planification en exécutant la commande du terminal :
Pour Linux et MacOS :
Pour modifier/supprimer - modifiez le cron de l’échéancier en utilisant :
'''bash
EDITOR=nano crontab -e
```
Pour Windows :
Question relative à l’exécution immédiate :
Problèmes courants et solutions
Soutien
Pour obtenir de l’aide supplémentaire :
Remarques
Ce guide fournit des instructions détaillées pour la configuration et l’utilisation du package d’intégration Delta Sharing sur un système d’exploitation Windows afin d’intégrer de manière transparente les données dans vos flux de travail avec Procore Analytics. Le package prend en charge plusieurs options d’exécution, ce qui vous permet de choisir la configuration et la méthode d’intégration souhaitées.
Assurez-vous d’avoir les éléments suivants avant de continuer :

{
« shareCredentialsVersion » : 1,
« bearerToken » : « xxxxxxxxxxxxx »,
« endpoint » : « https://nvirginia.nuage. databricks.c... astores/xxxxxx"
}

Vous pouvez également vérifier la planification en exécutant la commande du terminal :
Pour Linux et MacOS :
Pour modifier/supprimer - modifiez le cron de l’échéancier en utilisant :
'''bash
EDITOR=nano crontab -e
```
Pour Windows :
Question relative à l’exécution immédiate :
Problèmes courants et solutions
Soutien
Pour obtenir de l’aide supplémentaire :
Remarques
L’intégration de Delta Sharing à Microsoft Fabric Data Factory permet un accès et un traitement transparents aux tables Delta partagées pour vos flux de travail d’analyse avec Procore Analytics 2.0. Delta Sharing, un protocole ouvert pour une collaboration sécurisée des données, garantit que les organisations peuvent partager des données sans doublon.




Après avoir configuré le flux de données, vous pouvez maintenant appliquer des transformations aux données Delta partagées. Choisissez votre option Delta Sharing Data dans la liste ci-dessous :
Testez vos pipelines et flux de données pour garantir une exécution fluide. Utiliser des outils de surveillance au sein des données
Usine pour suivre les progrès et les journaux pour chaque activité.
L’utilisation de Data Factory dans Microsoft Fabric avec le partage Delta permet une intégration et un traitement transparents des tables Delta partagées dans le cadre de vos flux de travail d’analyse avec Procore Analytics 2.0. Delta Sharing est un protocole ouvert pour le partage sécurisé des données, permettant la collaboration entre les organisations sans dupliquer les données.
Ce guide vous guide tout au long des étapes de configuration et d’utilisation de Data Factory dans Fabric avec Delta Sharing, à l’aide de blocs-notes pour le traitement et l’exportation de données vers un Lakehouse.



3. Copiez le code de ds_to_lakehouse.py et collez-le dans la fenêtre du bloc-notes (Pyspark Python) :

L’étape suivante consiste à télécharger vos propres fichiers config.yaml et config.share dans le dossier Resources de Lakehouse. Vous pouvez créer votre propre répertoire ou utiliser un répertoire intégré (déjà créé pour les ressources par Lakehouse) :


L’exemple ci-dessous montre un répertoire intégré standard pour un fichier config.yaml .
Remarque : Assurez-vous de téléverser les deux fichiers au même niveau et pour la propriété config_path:

4. Vérifiez le code du bloc-notes, lignes 170-175.
L’exemple ci-dessous montre les modifications de ligne nécessaires :
config_path = « ./env/config.yaml »
à
config_path = « ./builtin/config.yaml»
Étant donné que les fichiers se trouvent dans un dossier intégré et non dans un environnement personnalisé, assurez-vous de surveiller votre propre structure des fichiers. Vous pouvez les charger dans différents dossiers, mais dans ce cas, mettez à jour le code du bloc-notes pour trouver correctement le fichier config.yaml .

5. Cliquez sur Exécuter la cellule :

Ce guide vous guide tout au long de la configuration et du déploiement d’une fonction Azure pour l’intégration de données Delta Sharing à Procore Analytics. La fonction Azure permet un traitement efficace des données et des flux de travail de partage avec les profils Delta Sharing.
Aller à
to pour obtenir des instructions sur l’installation des outils essentiels Azure Functions.Ce document fournit des instructions pas à pas pour la configuration d’un pipeline de données dans Microsoft Fabric afin de transférer des données de Delta Share vers un entrepôt SQL. Cette configuration permet une intégration transparente des données entre les sources Delta Lake et les destinations SQL.
Problèmes courants et solutions :
L’utilisation de Data Factory dans Microsoft Fabric avec le partage Delta permet une intégration et un traitement transparents des tables Delta partagées dans le cadre de vos flux de travail d’analyse avec Procore Analytics 2.0. Delta Sharing est un protocole ouvert pour le partage sécurisé des données, permettant la collaboration entre les organisations sans dupliquer les données.
Ce guide vous guide tout au long des étapes de configuration et d’utilisation de Data Factory dans Fabric avec Delta Sharing, à l’aide de blocs-notes pour le traitement et l’exportation de données vers un Lakehouse.



3. Copiez le code de ds_to_lakehouse.py et collez-le dans la fenêtre du bloc-notes (Pyspark Python) :

L’étape suivante consiste à télécharger vos propres fichiers config.yaml et config.share dans le dossier Resources de Lakehouse. Vous pouvez créer votre propre répertoire ou utiliser un répertoire intégré (déjà créé pour les ressources par Lakehouse) :


L’exemple ci-dessous montre un répertoire intégré standard pour un fichier config.yaml .
Remarque : Assurez-vous de téléverser les deux fichiers au même niveau et pour la propriété config_path:

4. Vérifiez le code du bloc-notes, lignes 170-175.
L’exemple ci-dessous montre les modifications de ligne nécessaires :
config_path = « ./env/config.yaml »
à
config_path = « ./builtin/config.yaml»
Étant donné que les fichiers se trouvent dans un dossier intégré et non dans un environnement personnalisé, assurez-vous de surveiller votre propre structure des fichiers. Vous pouvez les charger dans différents dossiers, mais dans ce cas, mettez à jour le code du bloc-notes pour trouver correctement le fichier config.yaml .

5. Cliquez sur Exécuter la cellule :





Veuillez communiquer avec le support Procore si vous avez des questions ou si vous avez besoin d’aide.
L’outil Nuage Connect Access de Procore Analytics est une interface de ligne de commande (CLI) qui vous aide à configurer et à gérer les transferts de données de Procore vers Snowflake.
Il se compose de deux composantes principales :
Exécutez l’utilitaire de configuration à l’aide de python user_exp.py.
Après la configuration, vous avez deux options pour exécuter la synchronisation des données :
Pour Linux et MacOS :
'''bash
EDITOR=nano crontab -e
```
2 * * * *
/Utilisateurs/your_user/flocon de neige/venv/bin/python
/Utilisateurs/your_user/flocon de neige/sql_server_python/connection_config.py
2> et 1 | while ligne lue ; do echo « $(date) - $line » ; C’est fait>>
/Utilisateurs/your_user/flocon de neige/sql_server_python/procore_scheduling.log # importation-des-donnees procore
Pour Windows :
```
PowerShell (en anglais seulement)
schtasks /query /tn « ProcoreDeltaShareScheduling » /fo LIST /v
```
{
« shareCredentialsVersion » : 1,
« bearerToken » : « xxxxxxxxxxxxx »,
« endpoint » : « https://nvirginia.nuage. databricks.c... astores/xxxxxx"
}
Vous devrez fournir les informations suivantes sur le flocon de neige :
L’outil offre la possibilité de planifier une synchronisation automatique des données.
Non défini
├── requirements.txt # Dépendances
├── user_exp.py # Utilitaire de configuration
├── ds_to_snowflake.py # Script de synchronisation des données
├── config.yaml # Configuration générée
├── config.share # Fichier de configuration Delta Share
├── procore_scheduling.log # Journal des exécutions d’ordonnancement
Remarque : N’oubliez pas de toujours sauvegarder votre configuration avant d’apporter des modifications et de tester d’abord les nouvelles configurations dans un environnement hors production.
L’outil Procore Analytics Nuage Connect Access est une interface de ligne de commande (CLI) qui vous aide à configurer et à gérer les transferts de données de Procore vers Amazon S3 avec Procore Analytics 2.0.
Il se compose de deux composantes principales :
Exécutez l’utilitaire de configuration à l’aide de python user_exp.py.
Cela vous aidera à configurer les éléments suivants :
{
« shareCredentialsVersion » : 1,
« bearerToken » : « xxxxxxxxxxxxx »,
« endpoint » : « xxxxxx »
}
Vous devrez fournir les informations S3 suivantes :
L’outil offre la possibilité de planifier une synchronisation automatique des données.
Vous pouvez également vérifier la planification en exécutant la commande du terminal
Pour Linux et MacOS :
Pour modifier/supprimer - modifiez le cron de l’échéancier en utilisant :
'''bash
EDITOR=nano crontab -e
```
Pour Windows :
Non défini
├── requirements.txt # Dépendances
├── user_exp.py # Utilitaire de configuration
├── delta_share_to_s3.py # Script de synchronisation des données
├── config.yaml # Configuration générée
├── config.share # Fichier de configuration Delta Share
├── procore_scheduling.log # Journal des exécutions d’ordonnancement
Problèmes courants et solutions:
Remarques :
Delta Sharing est un protocole ouvert pour le partage sécurisé de données en temps réel, permettant aux organisations de partager des données sur différentes plates-formes informatiques. Ce guide vous guidera tout au long du processus de connexion et d’accès aux données via Delta Sharing.
Le connecteur Python Delta Sharing est une bibliothèque Python qui implémente le protocole de partage Delta pour lire les tables à partir d’un serveur de partage Delta. Vous pouvez charger des tables partagées en tant que DataFrame pandas ou en tant que DataFrame Apache Spark si vous exécutez dans PySpark avec le connecteur Apache Spark installé.
Non défini
pip3 installer delta-sharing
Le connecteur accède aux tables partagées en fonction des fichiers de profil, qui sont des fichiers JSON contenant les informations d’identification d’un utilisateur pour accéder à un serveur de partage Delta. Nous avons plusieurs façons de commencer :
Une fois que vous avez enregistré le fichier de profil, vous pouvez l’utiliser dans le connecteur pour accéder aux tables partagées.
Importer delta_sharing
Le connecteur Apache Spark implémente le protocole de partage Delta pour lire les tables partagées à partir d’un serveur de partage Delta. Il peut être utilisé en SQL, Python, Java, Scala et R.
Le connecteur charge les informations d’identification de l’utilisateur à partir de fichiers de profil.
Vous pouvez configurer Apache Spark pour charger le connecteur de partage Delta dans les deux cas suivants
façons :
Si vous utilisez Databricks Runtime, vous pouvez ignorer cette section et suivre la documentation Bibliothèques Databricks pour installer le connecteur sur vos clusters.
Pour utiliser le connecteur Delta Sharing de manière interactive dans le shell Scala/Python de Spark, vous pouvez lancer les shells comme suit.
Interpréteur de commandes PySpark
Non défini
pyspark --packages io.delta :delta-sharing-spark_2.12:3.1.0
Coquille Scala
Non défini
bin/spark-shell --paquets
io.delta :delta-partage-spark_2.12:3.1.0
Si vous souhaitez créer un projet Java/Scala à l’aide du connecteur Delta Sharing à partir du référentiel central Maven, vous pouvez utiliser les coordonnées Maven suivantes.
Vous incluez le connecteur Delta Sharing dans votre projet Maven en l’ajoutant en tant que dépendance dans votre fichier POM. Le connecteur Delta Sharing est compilé avec Scala 2.12.
<dependency>
<groupId>io.delta</groupId>
<artifactId>delta-sharing-spark_2.12</artifactId>
<version>3.1.0</version>
</dependency>